Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 44

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 38 39 40 41 42 43 < 44 > 45 46 47 48 49 50 .. 131 >> Следующая

Априорная информация о виде распределения для каждого 43 классов может быть трех типов (по мере уменьшения): точ-
но (с точностью до конечного числа неизвестных пара известен вид распределения; вид распределения ней но может быть принята некоторая аппроксимация ра ления, которая, естественно, в общем случае привод»" большим ошибкам, чем больше несоответствие peari аппроксимирующих распределений; вид распредели вестен.
В зависимости от количества априорной информаций распределения для каждого из классов выбирается сп ализации оптимальной модели нейронной сети.
Априорная информация о вероятностях появлен зов из различных классов. При представлении суммарн? пределения вероятностей входного сигнала системы навания образов в виде (6.19) для создания системы ляется априорная информация следующих типов о ве стях появления образов из различных классов рк: коэ енты рк равны между собой для любого к, коэффици априори не равны для любого к, но неизвестны.
Первый случай не накладывает практически ника полнительных ограничений на методы решения зада обучения. Во втором случае введение более широких зонов изменения параметров входного сигнала вследс-i равенства рк приводит к усложнению процесса самооб ввиду необходимости при настройке определять кро] метров распределений для каждого подкласса еще и циенты рк.
6.5. О критериях первичной оптимизации нейро сети в режиме самообучения
Критерий первичной оптимизации также является нительной информацией, закладываемой в нейронну априори, наряду с априорной информацией о входном1 ле. Необходимость задания этого критерия заключается что он определяет качество системы распознавания, го она должна достигнуть в режиме самообучения.
Во всех случаях, описанных выше, когда распред образов в классах известны, аппроксимируемы или неизвестны, в принципе возможно применение критер вичной оптимизации самообучающихся систем распозн образов, по которому разделяющая поверхность (в ч
одномерном случае - порог) вычисляется в соответствии со следующим выражением:
д f(x) d2f(x)
— =0 при условии----------^—>0 .
Решение этого уравнения соответствует порогу h1 (рис. 6.12).
В случаях, когда распределения образов в классах могут быть определены или аппроксимированы, можно применить следующий критерий
Pi/i(*)= Р2/2(*)> (6-2°)
которому (на рис. 6.12) отвечает порог h2.
¦ Применеие вводимого критерия (6.20) первичной оптимизации в режиме самообучения оправдывается нашим представлением о работе человека в режиме самообучения, когда он в случае двух признаков и двух классов (рис. 6.13) делит множество образов на подмножества, проводя раделяющую поверхность по местам наименьшего сгущения образов.
‘ хг
о О
О о о О о о
О ° А ° о о °Л° о
О оро о О Soo о u
•о3? о 0 °° оЧР° 0° °
°°000°° °
*1
Рис. 6.12. К введению критериев первичной оптимизации самообучающихся нейронных сетей
Рис. 6.13. Иллюстрация к критерию (6.23)
Легко показать, что решения, оптимальные по данным критериям первичной оптимизации нейронной сети в режиме самообучения, отличаются друг от друга. Частный случай, изображенный на рис. 6.14, иллюстрирует дополнительные свойства указанных критериев. Здесь можно выделить три возможных случая:
1) классы хорошо разделяются, т.е. пересечение невелико (условием этого является то, что или о,, или о2 много мень-половины расстояния между центрами классов); оптималь-пороги hj и h2, соответствуют первому и второму крите-
рию первичной опта ции, отличаются др друга незначительн роги hj и h2 при о j на рис. 6.14,а);
2) классы столь но пересекаются, ч первому критерию' лучается оптимал* порога hy При этом из параметров бо половины рассто между центрами кл; а второй сравним ледней величиной
6.14,6, ст2=1>0,5);
3) классы сильн ресекаются, в этом чае пороги h1 и h2 сильно отличаются.; вием этого, по-видк является то, что Oj имеют тот же пор что и половина рас1 ния между центр, классов (рис. 6.14,в).
Полученные ре таты имеют следующее объяснение: в случае пп.1 и 3 ра; деление входного сигнала /(х) является двумодальным, как в случае п.2 оно одномодальное, и как раз в этом cj не ясен качественный смысл разделения одного «горба» на; класса, тогда как в случаях пп.1 и 3 пороги разделяют «го'“ двумодального распределения входного сигнала.
Последнее, по нашему мнению, является весомой чиной для введения в определение класса для задачи обучения ограничения, связанного с модальностью ции плотности распределения входного сигнала системы познавания образов. Именно представление /(х) мног дальной функцией позволяет использовать в режиме с" обучения в качестве критерия первичной оптимизации, циальную среднюю функцию риска.
Рис. 6.14. Сравнение критериев первичной оптимизации нейронной сети в режиме самообучения
6.6. Оптимальные модели нейронной сети в режиме самообучения и при произвольной квалификации учителя
Предыдущая << 1 .. 38 39 40 41 42 43 < 44 > 45 46 47 48 49 50 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed