Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 37

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 31 32 33 34 35 36 < 37 > 38 39 40 41 42 43 .. 131 >> Следующая

Система распознавания, оптимальная по критерию минимума средней функции риска, делит многомерное пространство признаков на три части: область, относимую нейронной сетью к первому классу; область, относимую нейронной сетью ко второму классу; область, в которой нейронная сеть отказывается от принятия решения о принадлежности образов к ’Тому или иному классу:
S'(x) < 0 ; S"(x) > 0 ; S/'(x)<0<5"(x).
(6.2)
Условная функция риска есть сумма потерь при отне образа г-го класса к j-й области. Потери вычисляются ответствующие вероятности, умноженные на величин эффициентов L (г=1, 2; j=1, 0, 2) матрицы потерь L
L =
hi ho hi
hi ho hi
Коэффициенты l10, l20 - коэффициенты потерь при o' системы от распознавания. Очевидно, что
^11<^ю<^12> hi>ho>h2 ¦
Выражения для условной функции риска имеют еле щий вид:
N N N
7-J = /.../гп Д(х) dx + j.. Jг10 /j(x) dx +/.../112 Д(х) dx; S'(x) < 0 5"(x)<0<5'(x) S"(x) > 0
N
N
N
-u
J...J l20 Ux) dx +J..J I
S'(x) < 0
l21 f2(x) dx + J...J l20 f2(x) dx +J...J l22 f2(x) dx.
5,/(x)<0<5“(x)
S"(x) > 0
Усредняя условные функции риска, получаем выра для средней функции риска
N
N
R = J..J[Zn Pj/^xJ+Ljj р2/2(х)] dx + J...J [Z10 pj^x
S'(x) < О
N
+i20 P2/2WI dx +l”i[l12 Pi/l(x)+i22 P2/2W] dx.
S*(x) > 0
Учитывая, что
N N N
П-ГТ-ГТ.
5"'(x)<0<S,(x) S"(x) < 0 S'(x) < О
а также то, что N
[^12 Pl/l(X)^~*22 P2^2^X)1 ^Х *12Pl~*~*22P2>
выражение для средней функции риска можно записать в следующем виде:
N
R = (*12 Pl~*"*22 Р2) • • • J" [*11 Pl/l(X)"*"*21 Р2/2(Х) *10 Pl/l(x) ~
S'(x) < 0
N
-*20 Р/2(Х№ Pio PlAW + *20 Р/2(Х) *12 Pl/lW ~ *22 Р/2(Х)1dx-
^"(х) < О
Отсюда следует окончательное выражение для средней функции риска:
N
R ~ (*12 Pl"^*22 Рг) ^ К*11~ *10^ Pl/l(x)"^(^21— *20) P5/2W ] dx
S'(x) < О
^ N (6.5)
+/•••/ [(*10 “ *12)Pi/i(x) + (*20~ *22) Рг/2(х)] dx-S"(x) < о
Необходимо найти выражения для S'(x) и S"(x), обеспечивающие минимум R. Достаточно просто показать, что минимум R обеспечивается в том случае, когда подынтегральные выражения отрицательны внутри соответствующей области интегрирования и положительны вне ее, т.е. минимум R обеспечивается при условии
S'(x)={ln- llQ) p1/1(x)+(i21- J20) р2/2(х) ; |
[ (6-6) S"(X)=Q10 ~ *12)Pl/l(x) + (*20“ *22) Р/2(Х)- '
Выражения (6.2) и (6.6) определяют оптимальную мо нейронной сети д ля распознавания двух классов образов с разделяющими поверхностями. Рассмотрим несколько под| нее частный случай, который более физически отражает < ность нейронной сети для распознавания двух классов об| с двумя разделяющими поверхностями.
Примем
при этом
hi ^22 Ц2 ^2i ho ho h’ Pi Рг S'(x)=(l-l0)/2(x) - l0/j(x),
*S'"(x)=I0 /2(х) - (1- Z0) /j(x). |
На рис. 6.3. представлена иллюстрация (в одномерном5! чае) зависимостей изменения порогов hx и h2 от lQ. ;
Анализ выражений для разделяющих поверхностей па ляет сделать следующие выводы: ]
а) при 10=0 зона, в которой нейронная сеть отказывает! распознавания, занимает все пространство признаков, тественно, так как в данном случае потери при отказе познавания равны нулю;
б) при Z0=l/2 нейронная сеть с двумя разделяющим! верхностями вырождается в нейронную сеть с одной раз| ющей поверхностью. Это случай, когда потери при отк$ распознавания в два раза меньше потерь при неправил распознавании, а потери от правильного распознавания ны нулю;
Рис. 6.3. Исследо структуры нейро сети в зависимости < эффициента потер] >. отказе системы от ра W навания
в) при конечном значении 10 в пределах 0,5 >10>0 существу-gт зона нечувствительности, где нейронная сеть не относит текущий образ на входе ни к первому, ни ко второму классу.
г) при значении 10 в пределах 1> 10>0,5 нейронная сеть реализует две разделяющие поверхности, причем в зоне между ними нейронная сеть относит текущие образы на входе и к первому и ко второму классу. На рис. 6.3 кривые изменения порогов симметричны как относительно линии /,(х)= /2(х), так и относительно уровня lQ= 0,5. На рис. 6.3 h{ - порог, которым определяется (в одномерном случае) поверхность 5"(х), h2 -порог, которым определяется поверхность >!>"(х).
д) при 10=1 все многомерное пространство признаков считается принадлежащим и к первому и второму классу.
Если сравнить оптимальные модели нейронной сети, построенные по критерию апостериорной вероятности (6.1) и критерию минимума средней функции риска (6.5), то видно, что при условии
Предыдущая << 1 .. 31 32 33 34 35 36 < 37 > 38 39 40 41 42 43 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed