Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 87

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 81 82 83 84 85 86 < 87 > 88 89 90 91 92 93 .. 131 >> Следующая

У Ъ(У)
Ь| ъ? Ь.ч ь4
У\ -1 +1 +1 +1
У2 -1 -1 +1 +1
Уя -1 -1 -1 +1
VI Уя, Уз
-1,-1 -1,1 1,-1 1,1
-1 Ь1 - - -
1 Ьг - Ьз «Ч
У2 Vi, У л
-1,-1 -1,1 1-1 1,1
-1 h - ь?. -
1 - ЬЯ ь4
Уз Уи У2
-1,-1 -1,1 1,-1 1,1
-1 Ь) - ъ?, h
1 - ь4
Отсюда следует, что
гЭЬ(у) ЭЦу) дЬ(у) 1
*¦ Эу, ’ Эу2 ’ Э1/3 2 1* 3 2’ 4 з)*
; Окончательный алгоритм настройки коэффициентов системы в данном случае выглядит следующим образом:
ajn+l) = ajn) + K*a [x(n)
y=y{n). (12.9)
Вектор b(y,n) вычисляется либо так, как указано выше, либо (для системы с более сложной структурой) по рекуррентной формуле, аналогичной рассмотренной в предыдущем пункте. Экспериментально исследованный алгоритм содержит следующие этапы работы:
1. На вход системы поступает образ х(п).
2. Случайным образом на интервале изменения х задаются начальные значения настраиваемых параметров аы (г—1,2,3).
3. По значениям вычисляются значения Ь,, ..., Ь4.
4. Выбирается компонента вектора Ь(у), ближайшая к х(п).
5. Для данной компоненты выбирается соответствующая величина в векторе ЭЬ /Эу(.
. 6. Пользуясь данными пп. 1,2,4,5 и выражением (12.9), произ-ЧОДят настройку коэффициентов системы.
: 7. На вход системы поступает образ х(п+1) и далее продолжается процесс настройки, начиная с п.З.
Исследовалось качество работы алгоритма как при определенным образом задаваемых начальных условиях, так и при случайно задаваемых с усреднением результатов по множеству случайных выбросов начальных условий настройки.
На рис. 12.33 представлена иллюстрация динамики настройки системы при определенных начальных условиях (координаты мод равны 3, 5, 7; сплошная линия - один вариант, пунктирная - другой).
На рис. 12.34, 12.35 представлены некоторые результаты работы алгоритма при случайных начальных условиях и конечной последовательности образов, а также заданных начальных условиях и различной длине последовательности образов. Жирные линии соединяют коэффициенты центров классов начальные (п=0) и конечные (п=М) моменты настройки.
Рис.12.33. Динамика настройки коэффициентов системы, представленной на рис. 12.31
п=0 --- '( . *
П-Н-
пж0 --- J-UAi
п=М ---
п = 0 ---
п-М ---
п=0 --- nrtart
Рис. 12.34. Результаты ис-
следования при различных начальных условиях и одинаковой длине выборки М на входе
Рис.12.35. Результаты исследования при одинаковых начальных условиях и различной длине выборки М на входе: Af j = 150; М2=300;
М3=450; М4=600
В данном случае
j VI
у = 1 +~ X [sign(g-a, ,+1)+1], й j=l
д(п) = а^п) х(п) - а0(п).
Как и ранее,
„ ду' дЬ(у) ду
у'Нх-ъ{у)?,^^-2[х-ът^-
Используя полученные в гл.9 значения ду /да, для данного случая можно записать рекуррентные выражения, являющиеся основой для построения соответствующего алгоритма настройки системы в режиме самообучения:
дЬ(у
a0(n+l) = aQ(n) " W«) _ Щ)] > к*0>°;
a1(n+l) = a1(n) + K*Jx(ti) - si8n x-
Алгоритм настройки системы содержит в данном случае следующие этапы:
1. На некотором заданном интервале случайным образом выбираются значения коэффициентов и ау
2. В соответствии со структурой разомкнутой системы и значениями коэффициентов ОцИ Oj вычисляются текущие значения порогов
+ °oW ’ ajn)
3. Вычисляются значения Ь(у) в соответствии с выражениями
и = -у х2,з “ xi,2 .
°i 1,2-------------’
bj~ + 3, . . . , Кр-1;
, , ХКр-1, Кр- ХКр-2,Кр-1
Ьк = хКр-1> Кр +---------2----------•
4. На вход системы в момент времени п поступает образ *(п) и вычисляется величина у.
5. По величине у выбираются соответствующие значения Ыу) и дЪ(у)/ду
6. Производится коррекция настраиваемых коэффициентов а0 и cij в соответствии с приведенными выше выражениями.
7. Процедура повторяется начиная с п.2.
8. Процедура повторяется начиная с п.1, и результаты усредняются по множеству выбросов начальных условий.
12.7. Двухслойная нейронная сеть в режиме самообучения
Вначале предметом исследования являлась двухслойная нейронная сеть, в которой в первом слое было четыре нейрона с двумя решениями, во втором - нейрон с Кр= 5 решениям. Здесь
1 КР Н=4 N=2
у = F[g) = 1 +- Е [sign{ Е a.signx (Е af •*,.)-/? }+l].
i j-i i=o ’
С использованием материалов гл.9 бьши получены выражения, являющиеся основой для построения замкнутой двухслойной нейронной сети в режиме самообучения, в следующем виде:
Предыдущая << 1 .. 81 82 83 84 85 86 < 87 > 88 89 90 91 92 93 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed