основании
информации
,
доступной
обработке
в
нейроне
.
Исходя
из
этой
очевидности
и
,
что
более
важно
,
на основе современных знаний о принципах системной самоорганизации
нервных клеток человеческого организма
,
и
построены
алгоритмы
работы
самообучающихся
ИНС
.
Начнем
с
рассмотрения
метода, основанного на изменении весов межслойных
связей в
соответствии с
правилом Хебба
.
Правило
Хэбба
состоит
в
том
,
что
нейроны
соседних
слоев
,
обретшие
точку
синапса
,
активируются
одновременно
,
при
этом
достигается
максимальная
эффективность
межслойной
(
синаптической
)
информационной
связи
.
Алгоритм
данного
метода
представляет
собой
итеративный
(
пошаговый
)
процесс
с
назначаемой
скоростью
обучения
.
Под
этим
понимается
достижение
требуемой
надежности
обучения
ИНС
распознаванию
конкретного
образа
.
Метод
может
быть
реализован
в
двух
вариантах
.
Вариант
первый
(
сигнальный метод обучения
)
заключается
в
изменении
весов
межслойных
связей
при
каждой
итерации
путем
увеличения
веса
синаптической
связи
каждой
пары
нейронов
соседних
слоев
на
величину
взвешенного произведения их
выходных сигналов
.
Взвешивание
произведения
выходных
сигналов
состоящих
в
связи
нейронов
происходит
с
помощью
безразмерной
величины
α
,
которая
назначается
,
сообразуясь
с
желанием
быстрее
обучить
систему
и
с
опасностью
пропустить
состояние
ее
приемлемой
обученности
,
если
поиска
этого
состояния
будут
слишком
велики
:
w t w t y y
ij ij i
n
j
n
( ) ( )
( ) ( )
= − + ⋅ ⋅
−
1
1
α
. (6.2.5)
где
: - y
)1( −n
i
и
y
n
j
–
выходные
сигналы
i-
го
и
j-
го
нейронов
соответственно
(n-1)-
го
и
(n)-
го
слоев
;
- w
ij
(t)
и
w
ij
(t-1) -
весовые
коэффициенты
межслойной
связи
в
синапсе
,
соединения
i-
го
нейрона
слоя
(n-1)
и
j
го
нейрона
слоя
(n)
в
итерациях
(t)
и
(t-1)
соответственно
;
-
α
–
коэффициент
,
определяющий
назначаемую
скорость
обучения
ИНС
.
Здесь
номером
(n)
обозначается
произвольный
внутренний
(
скрытый
)
слой
сети
( 1
≤
n
≤
N-
1),
где
N –
общее
число
выходных
слоев
сети
.
Вариант
второй
(
дифференциальный метод обучения
).
Изменение
весов
межслойных
синаптических
связей
при
каждой
итерации
происходит
путем
увеличения
их
значений
на
величину
взвешенного произведения разностей выходных сигналов
каждого нейрона по сравнению с предыдущей итерацией
.
Весом
произведения
таких
разностей
,
как
и
в
сигнальном
методе
,
является
величина
α
w t w t y t y t y t y t
ij ij i
n
i
n
j
n
j
n
( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
= − + ⋅ − − ⋅ − −
− −
1 1 1
1 1
α
.
(6.2.6)
Значение
величин
,
входящих
в
выражение
(6.2.6),
те
же
,
что
и
для
c
игнального
метода
обучения
.
Как
следует
из
(6.2.5)
сильнее
других
при
дифференциальном
методе
корректируются
веса
синаптических
связей
той
пары
нейронов
,
выходы
которых
наиболее
динамично
изменились
в
сторону
увеличения
по
сравнению
с
предыдущей
итерацией
.
Обобщенный
алгоритм
обучения
по
обоим
методам
одинаков
и
состоит
в
выполнении
следующей
последовательности
процедур
.
1.
На
стадии
инициализации
ИНС
всем
весовым
коэффициентам
присваиваются
небольшие
произвольные
значения
.
2.
На
входы
сети
подается
объект
,
со
свойствами
пока неизвестного системе образа
,
и
делается
первый
«
прогон
»,
при
котором
сигналы
возбуждения
распространяются
по
всем
слоям
сети
.
При
этом
,
в
соответствии
с
произвольно
назначенными
весами
синапсов
,
для
каждого
(i-
го
)
нейрона
каждого
синапса
каждого
(n-
го
)
слоя
(
то
есть
,
для
каждой
пары
соединенных
нейронов
)
рассчитывается
взвешенные
суммы
их
входов
,
к
которой
затем