90 Приложения нечеткой логики
Простейшим методом оптимизации является градиентный метод:
w
+
= w
c
− η∇
w
J(w
c
),
где w
c
и w
+
—значениявекторавесовнатекущейиследующейитера-
циях соответственно, η — длина шага вдоль направления антиградиента.
На практике обучение НС производится с помощью более эффективных
методов, основанных на знании градиента — методах Флэтчера-Ривса,
Полака-Рибьера, DFP, BFGS и т.д. Следует заметить, что данные мето-
ды применяются для оптимизации произвольных нелинейных функций.
К сожалению, они не полностью используют специфику задач обучения
НС прямого распространения.
Квадратичность минимизируемого функционала, суперпозиционный
характер, а также линейно-нелинейная по весам структура сети позво-
ляют конструировать специальные методы обучения НС. Метод Голуба-
Перейры позволяет учесть все эти особенности [47]. Опишем суть метода
для случая двухслойных одновыходных НС при отсутствующей функции
активации в последнем слое (именно такие сети являются центром вни-
мания в теореме Фунахаши) [7,31].
Вектор весов сети w разделяется на две части — линейно входящий
вектор u ∈ R
q
, состоящий из весов нейрона выходного слоя w
i
,i = 1,q,
и вектор нелинейно входящих весов v ∈ R
p
, составленный из весов ней-
ронов скрытого слоя w
ij
,i = 1,n,j = 1,q. Справедливо следующее пред-
ложение.
Предложение 2.6. Пусть (u
∗
,v
∗
) — веса, минимизирующие ошибку ра-
боты сети, и F (v) — матрица выходов нейронов скрытого слоя, постро-
енная на обучающем множестве. Тогда
u
∗
= F (v
∗
)
+
˜y,
где ˜y — вектор, составленный из указаний учителя в обучающем множе-
стве, F (v
∗
)
+
— псевдообратная матрица. При этом задача минимизации
функционала
J(w)=$F (v)u − ˜y$
2
эквивалентна минимизации функционала
J
gp
(v)=$F (v)F (v
∗
)
+
˜y − ˜y$
2
,
где $·$ — символ евклидовой нормы.