
тив состоит из одного решающего правила R
1
и задача оптимизации
(4.6.21) решается только по параметрам C
1
этого правила. Далее
образуется коллектив из двух правил путем добавления второго
решающего правила R
2
с неизвестными параметрами C
2
, которые
определяются путем оптимизации коллектива решающих правил по
параметрам C
2
. Эта процедура продолжается до тех пор, пока
вероятность ошибки распознавания коллективом алгоритмов не станет
достаточно малой. Как видно, здесь на каждом этапе производится
оптимизация по параметрам C
i
лишь одного решающего правила R
i
,
что значительно упрощает задачу оптимизации.
Эффективность предложенного способа структурной оптимизации,
т. е. метода последовательного наращивания коллектива новыми
членами, показана на модельной задаче [78]. В коллектив были
объединены линейные дискриминантные функции, т. е. каждое из
решающих правил задавалось n+1 параметром линейной формы.
Добавление членов коллектива осуществлялось до выполнения
критерия останова P≤0,02. Во всех десяти экспериментах этот
критерий достигался коллективом, составленным из L = 3—5
алгоритмов при n=2. Для сравнения рассматривался случай
наращивания коллектива случайными линейными правилами без
оптимизации. В результате десятикратного эксперимента указанный
критерий останова достигался, когда в коллектив были объединены в
среднем одиннадцать линейных решающих правил. В другом примере
на той же модельной задаче проводилась одновременная оптимизация
параметров всех членов коллектива (т. е. решалась задача (4.6.21)).
Значения критерия Р≤0,02 не удалось достигнуть ни в одном
эксперименте.
Приведенные результаты экспериментов указывают на пре-
имущество метода последовательной оптимизации по сравнению с
одновременной оптимизацией всех параметров коллектива или
случайной генерацией новых членов коллектива без оптимизации.
Очевидно, что в коллектив кроме параметрических решающих
правил могут быть объединены и непараметрические решающие
правила, к которым относятся, например, алгоритм Байеса, «Кора» и
др. Специфика работы с такими алгоритмами заключается в том, что
ввиду отсутствия параметров они не могут быть оптимизированы
параметрически. С другой стороны, параметры параметрических
алгоритмов не всегда позволяют варьировать свойства этих
алгоритмов в необходимых пределах. Эти обстоятельства заставляют
искать новые пути создания оптимального разнообразия в коллективе
таких алгоритмов. Для преодоления указанной трудности предлагается
варьировать обучающую выборку [80]. Например, эту вариацию
можно