42
Далее в тех же условиях и по той же схеме как описано в пункте 6.2
для прямой регрессии выполните исследование для инверсной регрессии.
6.4 Исследование правила классификации в распознавании обра-
зов с использованием непараметрической реализации байесовского под-
хода
При тех же условиях, что описаны в пункте 4.1, считая, что функции
плотности неизвестны реализуйте и исследуйте непараметрическую реализа-
цию байесовского подхода:
При байесовском подходе к принятию решений решающая функция
имеет вид:
По обучающей выборке находим непараметрические оценки условных
плотностей
и априорных вероятностей
:
5/1
,
11
)|(
ˆ
−
∈
=
−
=
∑
cnh
h
xx
K
hn
lxf
l
n
Ii
i
l
, 2,1,)(
ˆ
== l
n
lP
l
.
Получаем непараметрическую оценку решающей функции:
=
−
−
−
=η
∑∑
∈∈
n
n
h
xx
K
hnn
n
h
xx
K
hn
x
nn
Ii
i
Ii
i
n
2
2
1
1
2
1
1111
)(
i
n
i
y
h
xx
K
hn
∑
=
−
=
11
Как видно из структуры обучающего правила можно (и нужно) подоб-
рать оптимальные ядра и коэффициенты размытости для обеспечения мини-
мума ошибки классификации.
При минимизации оценки вероятности ошибки по параметрам
коэф-
фициентов размытости
надо учесть, что зависимость
).о( шP
n
′
от
раз-
рывная. Для оптимизации необходимо использовать квазиградиентные алго-
ритмы, в которых вместо градиентов от
n
P
′
по
используются их оценки
(квазиградиенты). Можно применить метод глобальной оптимизации, опи-
санный в главе 5 учебного пособия.
Полученный классификатор необходимо исследовать на зависимость
от:
1. Объема обучающей выборки.