Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 73

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 67 68 69 70 71 72 < 73 > 74 75 76 77 78 79 .. 131 >> Следующая

10.9.2. Рекуррентная процедура настройки кусочнолинейных весовых функций
Рассуждая как в предыдущем пункте, приходим к выводу, что матрица К*(г) имеет в данном случае следующий вид (при условии, что весовая функция нейронов второго слоя кусочно-постоянна):
S
К*(г) = ?(Kls г +KJ H(i, s). (10.43)
Следовательно, процедура обучения слоя на s-м отрезке имеет следующий вид:
-----------------------тп
(10.44)
ais (n+1) = aJn)+2 KJn) xg(n) sign %(n) sign Xj(n)
------------------------ 1
(n+1) = ajn) +2 KJn) xg(n) sign ajn) sign x^n) ".
Здесь подразумевается, что s
а (г) = 2 (al4 i +a0j) H(i, s).
Выражение (10.44) имеет место лишь для указанного выше
ограничения на весовую функцию нейрона второго слоя. В общем случае процедура обучения имеет вид
als(n+l) t+a0s(n+l) = au(n) i + aQs(n) +
+ 2 K*u(n,i) xg(n) sign x,(n) Fs(i,n)m*, (10.45)
где функция Fs(i,n) зависит от выходных сигналов слоев нейронов, следующих за рассматриваемым. Отсюда, обозначив линейную функцию
---- " 771
fs(n,i) = 2 K*s(n,i) хд(п) sign х^п) Fs{i,n) ", получаем для S-ro отрезка
d
au(n+l) = als(n)+ ^r(/s(n, i)),
¦ ao* (n+1) = ej») *) “ di г')) •
Выражения (10.45), (10.46) - общие алгоритмы настройки кусочно-линейных функций континуального слоя нейронов.
Вид матрицы (10.43) следует из выражения (10.38) при ограничениях вида (10.34а) на весовую функцию нейрона второго слоя, определения векторов-функций Кп+1(г), Rn(i) и условия линейности весовых функций на s-м отрезке.
Действительно, из условия линейности весовых функций на s-м отрезке и определения Rn+l(i), R„(i) следует
Rs (п, г) = RJn) г + R0s(n)
(10.47)
Rs (п+1, г) = Rls(n+1) г + K0s(n+1).
Из (10.38) и (10.47) следует (10.43).
10.10. Континуальный слой нейронной сети
с кусочно-постоянными весовыми функциями (случай фиксированных величин «ступенек»)
10.10.1 Разомкнутая структура слоя
Пусть весовые коэффициенты слоя нейронов имеют вид рис.10.4 при условии, что точки разбиения xs не фиксированы (т.е. меняются длины отрезков разбиения). Пусть при этом амп-
питуды прямоугольников фиксированы и имеют величины Jsl ¦ До, где Usl - целое число; Да - постоянная величина. При этом l-я весовая функция слоя запишется следующим образом:
S
а,(г)= X Usl Да H{i, s), (10.48)
S=1
ще
H(i, s) = h(i-Ts.1) - h(i-xs).
Выходной сигнал слоя
L s s
x(i) = sign [ Да( X X Usl H(i, s) x, +D UsQH(i, s) )] .
1=1 s—1 s=l
Этсюда
5 L
x(i) = S H(i, s) sign [ Да( , x, +l/s0)] . (10.49)
s=i 1=1
Структура (10.49) аналогична структуре (10.32a) при условии, что временные интервалы Ts, в течение которых соот-зетствующие нейроны подключены ко входу следующего слоя, гвляются переменными, и, кроме того, амплитуды весов на ;-м отрезке фиксированы. Таким образом имеем s-мерный век-гор изменяемых параметров ts.
10.10.2. Рекуррентная процедура настройки кусочнопостоянных весовых функций с изменяемыми длинами отрезков ts
Рекуррентная процедура настройки вектора т имеет следу-ощий вид
.(»+!)-«(»)-К* <1050»
Эт , ч
т= г(п) '
¦де У(п) - функционал вторичной оптимизации. Если
У(п) = (е(п) - у(п))2 = х2д,
де у(п) - выходной сигнал нейронной сети; е(п) - указание гсилителя, то
y(n) = F[x(i)],
де х(г) ~ выходной сигнал рассматриваемого слоя, F - пре-'бразование, осуществляемое последующими слоями нейрон-юй сети над x(i):
ЭУ by dxji)
(hs Xg 0x(i) Эт.
С учетом вида x(i) получаем
ЭУ_ 2 3F Эа(г) dH(i,s) dxs Хд dx(i) dH(i,s) dxs
Эсс(г)
1.= sign [ Да( lAJsl x, +Us0)] . (10.51)
ЭЯ(г
Из определения функции Н(г, s): dH(i,s) Э р -j dH(i,s) dh(t~x)
dH(i,s)_ 9(sign(t-Ts)) 3(t~ts)
^ drs d(t~Ts) drs
9(t“T)
=-l;
= б(г—x;
s
Необходимо использовать информацию о знаке производной ЭЯ(г»
dzs
(dH(i,s) \ ,
sign ^)= 1 при г >Ts .
Предыдущая << 1 .. 67 68 69 70 71 72 < 73 > 74 75 76 77 78 79 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed