4.7. АВТОМАТИЧЕСКОЕ ОПРЕДЕЛЕНИЕ ПАРАМЕТРОВ НЕЙРОННОЙ
СЕТИ.
Необходимость обеспечения конкурентоспособности изделий за счет улучшения
качества и повышения надежности предъявляет новые требования к системам
управления качеством. К этим требованиям относятся адаптивность, универсальность,
способность определять и предсказывать состояние объекта управления, а также
принимать решения в условиях недостаточной информации.
При построении систем управления качеством, удовлетворяющих
вышеперечисленным требованиям, весьма перспективным является использование
нейронных сетей (НС), которые обладают такими свойствами как обучаемость и
способность аппроксимировать любые вычислимые функции [6]. Это позволяет
использовать их для построения математических моделей даже в тех случаях, когда
другими методами это сделать затруднительно. Наиболее мощным классом нейронных
сетей на сегодняшний день являются многослойные нейронные сети (МНС), которые
целесообразно использовать при построении моделей сложных объектов и процессов.
Для обучения МНС разработано достаточно много алгоритмов. Наилучшие
показатели по скорости обучения среди всех алгоритмов обучения МНС дают
градиентные алгоритмы, которые наиболее часто применяются при построении
нейросетевых систем. Однако, они обеспечивают различную сходимость и могут
работать только при определенных условиях. В то же время сходство градиентных
алгоритмов дает основание для разработки обобщенного градиентного алгоритма
обучения МНС. В настоящей работе рассматривается обобщенный градиентный
алгоритм обучения МНС, и исследуются вопросы практического использования
градиентных алгоритмов, являющихся частными случаями обобщенного градиентного
алгоритма.
Среди различных структур нейронных сетей (НС) одной из наиболее известных
является многослойная структура, в которой каждый нейрон произвольного слоя связан
со всеми аксонами нейронов предыдущего слоя или, в случае первого слоя, со всеми
входами НС. Такие НС называются полносвязными, однако это не принципиально,
поскольку связи слоев учитываются специальными средствами, например матрицами
связи, или сразу в алгоритме расчета НС. Когда в сети только один слой, алгоритм ее
обучения с учителем довольно очевиден, так как правильные выходные состояния
нейронов единственного слоя заведомо известны, и подстройка синаптических связей
идет в направлении, минимизирующем ошибку на выходе сети. По этому принципу
строится, например, алгоритм обучения однослойного персептрона [15]. В
многослойных же сетях оптимальные выходные значения нейронов всех слоев, кроме
последнего, как правило, не известны, и двух или более слойный персептрон уже
невозможно обучить, руководствуясь только величинами ошибок на выходах НС. Один
из вариантов решения этой проблемы – разработка наборов выходных сигналов,
соответствующих входным, для каждого слоя НС, что, конечно, является очень
трудоемкой операцией и не всегда осуществимо. Второй вариант – динамическая
подстройка весовых коэффициентов синапсов, в ходе которой выбираются, как
правило, наиболее слабые связи и изменяются на малую величину в ту или иную
сторону, а сохраняются только те изменения, которые повлекли уменьшение ошибки на
выходе всей сети. Очевидно, что данный метод "тыка", несмотря на свою кажущуюся
простоту, требует громоздких рутинных вычислений. И, наконец, третий, более
приемлемый вариант – распространение сигналов ошибки от выходов НС к ее входам,