Простейшими функциями принадлежности являются треугольная и трапециидальная,
поскольку они состоят из прямых линий.
Третий слой состоит из узлов, выполняющих логическую операцию «И» или
«минимум» или «умножение».
Четвертый слой в гибридной сети системы нечеткого вывода типа Мамдани состоит
из правил «или».
Пятый, последний слой состоит из единственного узла, выполняющего
дефаззификазию нечетких сигналов по методу центра максимумов или любым другим
методом.
Все связи между узлами просто передают сигнал без умножения на постоянное число
(вес связи), как это было принято в обычных нейронных сетях прямого
распространения. Таким образом, подстраиваемыми параметрами являются только
форма и координаты входных термов и настройка логических правил.
Гибридные нейронные сети могут так же отличаться принципом генерирования
логических правил, поскольку их число задается автоматически и способом соединения
слоя фаззификации со слоем правил. Но главная классификация гибридных нейронных
сетей базируется на способе дефаззификации. Основные виды ГНС представлены в
следующем разделе.
Итак, для настройки любой нейронной сети прямого распространения нужно знать
множество входных и соответствующих, требуемых выходных значений сети.
Зная матрицу входных сигналов и матрицу выхода, или целевую матрицу мы можем
применить метод обратного распространения ошибки, или другое название этого
метода – метод градиентного спуска. И путем поиска минимума от функции ошибки
найти оптимальные параметры системы логического вывода, обеспечивающие
минимальное отклонение реальных выходных значений от значений, требуемых
целевой матрицей.
Кроме различий в архитектуре нейронных гибридных сетей так же много вариантов в
методах настройки их параметров. Наибольшей популярностью пользуется
градиентный метод обучения, при котором определяется среднеквадратичное
отклонение реального выхода нейронной сети от целевых значений, и поиск
производной от всех настраиваемых параметров. Основным принципом градиентного
метода является поиск направления изменения функционала ошибки и изменение
параметров сети с целью уменьшения значения этого функционала.
Однако для настройки может так же использоваться и несколько методов обучения
одновременно. Например, метод градиентного спуска и метод наименьших квадратов,
как это сделано в Matlab 6.1 на примере ANFIS сетей.