38
8. Начнем обучение. Попробуем вновь снизить ошибку
обучения до 0,5, но уже с помощью алгоритмов обратного
распространения ошибки. Установим в окне Критерии
остановки (Stopping criteria) предельную ошибку обучения
равной 0,5. Нажмем Start Training. Ждем результатов обучения.
В процессе ожидания можно наблюдать за ходом обучения по
изменению ошибки сети или с помощью всех графических
средств отображения процесса
обучения. Видно, что ошибка
обучения хоть и очень медленно, но уменьшается.
Соответственно меняется график ошибок и диаграмма разброса.
Отклик сети пока недоступен.
Обучение остановилось. Видим, что даже заданных 100 000
эпох не хватило для достижения требуемой ошибки обучения.
Остановка обучения произошла по истечении числа эпох и
ошибка на начало 100 001-й эпохи составила 0,51715.
9. Продолжим обучение. Это можно сделать различными
способами: увеличением числа эпох обучения, выбором других
значений начальных весов, очисткой эпох и др. Выберем,
например, вариант Очистка эпох (Clear epoches). Это означает,
что текущее значение эпохи будет уменьшено на 100 000, т.е.
вновь примет значение = 1, а конечное значение ошибки
предыдущего цикла обучения (0,51715) будет принято в качестве
начального для данного, нового цикла обучения сети. Нажмем
Start Training. Этот процесс, возможно, придется повторить
многократно до тех пор, пока ошибка обучения не достигнет
заданного уровня. В нашем примере это пришлось сделать
примерно десять раз. Это говорит о том, что алгоритмы
оптимизации, используемые при обучении сети, попали на склон
длинного пологого оврага
(см. рис. ниже), и для достижения его
дна (глобального минимума) потребовалось порядка миллиона
эпох (итераций). После чего был получен требуемый результат.
Движение к дну длинного оврага Ошибка обучения