Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 32

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 26 27 28 29 30 31 < 32 > 33 34 35 36 37 38 .. 131 >> Следующая

95
ное указание, к какому классу относится сигнал из об щей выборки. При самообучении сигналы в обучающей в ке не сопровождаются указанием об их принадлежности: или иному классу и вероятность принадлежности пред телей обучающей выборки, в простейшем случае с двумо ным распределением, к классам, соответствующим ка моде, равна не единице, как в случае обучения, а 0,5. ятность указания учителя об объективной принадлеж образов к тому или иному классу обозначим через а.
Представляет интерес рассмотрение промежуточнь жимов, режимов плавного перехода от задачи обуче самообучению и наоборот в расчетной блок - схеме ал ма (рис. 5.3). Переход должен осуществляться измене пределах от а=1 до а=0,5 (и наоборот) вероятности пр
Рис. 5.3. Структура математической модели единого подхо дачам обучения и самообучения систем распознавания образов
лежности членов обучающей выборки тому или иному Рассмотрение этих режимов необходимо для:
1. Создания общего подхода к анализу и синтезу обу, и самообучения систем распознавания образов.
2. Решения некоторых практических задач, в част обучения системы распознавания образов с учителем, ¦ щим ограниченную, неполную квалификацию, т.е. дела определенное количество ошибок при обучении системы познавания. В случае, когда учитель совсем не делает бок, мы имеем дело с указанным выше режимом обу Если учитель ничего не знает о входных образах и в последовательность указаний принадлежности выборок к сам совершенно произвольно, независимо от представ-обучающей выборки, мы имеем дело со случаем а=0,5, случаем самообучения.
Заметим, что при рассмотрении подобного общего по к задаче, включающей режимы обучения и самообучен частные случаи, приходится в любом из рассматрива
96
еясимов (обучение, самообучение и промежуточных) называть выборку на входе обучающей.
Выражение для совместного закона распределения /(х,е) сигнала х(п), соответствующего последовательности образов, и сигнала е(п) указания учителя о принадлежности образов к классам имеет следующий вид:
[ рх(1 - а) Д(х) + р2а /2(х) при е=1,
/(х, е)= ] (5.1)
L рга Д(х) + р2(1 - а) /2(х) при е=-1,
где pt и р2 ' априорные вероятности появления первого и второго класса, Д(х) и /2(х) - законы распределения сигналов Xj(n) и х2(п), представляющих в данном случае образы первого и второго класса.
Распределение (5.1) является дискретно-непрерывным из-за дискретной записи функции е(п), хотя в принципе его можно записать в непрерывной форме, используя 5-функцию Кроне-кера. Особенность дискретного представления учитывается далее заменой операции интегрирования по е операцией суммирования.
Степень квалификации учителя Ь вводится следующим образом [5.1, 5.2]:
Ь = 2а - 1. (5.2)
Отсюда Ъ = 1 при а = 1 - учитель имеет полную квалификацию, Ь = 0 при а = 0,5 - учитель не имеет квалификации.
При подстановке (5.2) в (5.1) получаем:
/(х, е) =
р.(1 - Ь) р,(1 + Ь) ,
— -Д(х) + ?21-----------' /2(Х) при с 1 >
2 2 Pj(i + ь) pji - ь),. . , (5-3)
—----------Д(х) + -------:/2(х) при Е=1.
2 2 На рис. 5.3. представлена структура математической модели Формирования входного сигнала нейронной сети для данного случая.
Выражения (5.3) и (5.2) относятся к случаю, когда степень квалификации учителя при отнесении им образа из выборок первого или второго класса одинакова и равна Ь. Соответствен-Но одинаковой для этих классов и равной а будет вероятность пРинадлежности текущего образа классам. Из (5. 3) при b = 1 бедует совместный закон распределения входного сигнала в Режиме обучения нейронной сети:
Совместный закон распределения входного сигнала в самообучения нейронной сети при Ь = О имеет следую*
Дх, е) =
JVi(x) + Ъ../2(х) при е=1,
2 2
при е=-1.
2 2
Здесь сигнал е(п), являющийся указанием учителя, н никакой информации о принадлежности образов к тому ] классу, так как условные вероятности / '(х/е=1) и / '(х равны между собой.
Из (5.3) при Ъ = - 1 имеем:
/(х, е)=
Pj/^x) при е=1, р2/2(х) при е=-1.
В этом случае учитель специально осуществляет вильную классификацию (учитель является «вредител Составим выражение для условных законов распр ния вероятностей входного сигнала. По определению ной вероятности
/ (х/?)—

где /Е(е)
/ (х, е) dx.
После интегрирования выражения (5.3) получим ф распределения указаний учителя в следующем виде:
т =
— + — (р2~ Pi) при е=1,
2 2
—+—(Pi“ Р2) при е=-1. 2 2
Подставив (5.6) и (5.3) в формулу (5.5), получим:
Предыдущая << 1 .. 26 27 28 29 30 31 < 32 > 33 34 35 36 37 38 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed