
С учителем. Учителю известен для каждого входного вектора требуемый выходной
целевой вектор – обучающая пары. Сравнением вычисляются ошибки и настройкой весов
минимизируются. Популярны 2-а метода δ-правило и способ обратного распространения
ошибки.
Без учителя. При предъявлении входных векторов НС самоорганизуется путем
настройки своих весов по заданному алгоритму так, что предъявления достаточно близких
входных векторов даёт одинаковые выходы , т.е . НС группирует сходные входные
векторы в классы. После обучения все выходные нейроны возбуждаются, а нейрон с
максимальным возбуждением ассоциирует с данным классом и , хотя целевых векторов
нет НС будет отображать существенные характеристики обучающего набора.
Для программной реализации используют два класса алгоритмов.
Детерминистические : НС пошагово корректирует веса определяемые выходом и
алгоритмом. Стохастические не изменяет веса псевдослучайно , сохраняя те , которые
ведут к уменьшению ошибки . Достоинства : снимается проблема глобального минимума и
возможное отсутствие сходимости сети при малых шагах изменения весов. Недостаток: по
сравнении с детерминистическим алгоритмом – длительность процесса обучения.
Пример алгоритма обучения методом δ- правила
Сначала :
- Выбираем уровень допустимости ошибки ε
0
.Для двоичных выходов можно
выбрать ε
0
=0. Составим таблицу обучающих пар
1. Задаем случайную матрицу весов небольших значений (-0,3… +0,3) входной
целевой
2. Предъявляем любой вход (вектор входа ) и вычисляем вектор ответа НС
Y
j
НС
3. Вычислим вектор ошибок δ
j
=Y
j
-Y
j
НС
4. Изменяем веса W
ij
=W
ij
+ηε
j
X
i
η-коэф . Скорости обучения лежит в
диапазоне 0<η<=1
5. Вычисляем суммарную ошибку
∑
=
m
j
de
m – количество выходов НС
6. если ε>ε
0
идем на шаг 2 иначе завершаем обучение .
7. Тестируем НС входом не входящим во множество векторов обучения.
8.7 Примеры тестирования простых НС
Удобно проводить с помощью геометрических представлений.
Входной вектор
это группа (область ) точек в многомерном пространстве .
Распознавание (классификация) это объединение точек или областей образов по
классификационным признакам Y
j
. Например проведение одной или нескольких прямых
(линейная НС) для двумерного образа (входного вектора) или плоскостей (поверхностей)
для трёхмерного образа или плоскостей, криволинейных поверхностей для n>3 мерного
образа .