пороговое значение T в левую часть, то получится
w
1
x
1
+ w
2
x
2
+ ...+ w
n
x
n
− 1 · T 0.
Если теперь обозначить (−T ) через w
0
, то получится такое неравенство:
w
0
x
0
+ w
1
x
1
+ w
2
x
2
+ ...+ w
n
x
n
=
n
i=0
w
i
x
i
0,
где x
0
=1. При этом следует заметить, что обучающее множество изменится:
добавится первый столбец, состоящий из единиц, соответствующий входу x
0
.
Если существуют такие веса w
i
, i =0,...,n,чтоw, x 0 для всех
точек x ∈ C
1
и w, x < 0 для всех точек x ∈ C
2
, то такая задача называется
линейно разделимой. Как показано в примере 1.1, булева функция y = x
1
∨x
2
является линейно разделимой.
Если в примере 1.1 веса перцептрона каким-либо образом подбирались,
то конструктивный подход состоит в применении алгоритма обучения пер-
цептрона 1.
Алгоритм 1. Обучение перцептрона
1. Задание константы η>0 — шага обучения.
2. Инициализация весов w
i
, i =0,...,n небольшими случайными значения-
ми. Ошибка работы перцептрона E := 0. Номер примера обучающего мно-
жества m := 1.
3. Начало обучения. x := x
m
, y := y
m
. Вычисление выхода перцептрона при
текущем входном векторе x: y = y(x).
4. Обновление весов
w := w − η(y − y)x.
5. Накопление ошибки
E := E +
1
2
y − y
2
.
6. Если m<k,тоm := m +1и переход на шаг 3.
7. Если E =0, то прекращение вычислений (решение найдено), иначе E := 0,
m := 1 и переход на шаг 3.
17