Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 70

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 64 65 66 67 68 69 < 70 > 71 72 73 74 75 76 .. 131 >> Следующая

=>Кп+1(х(п, г)) ~R (x(n, i)) = Я К (г, j) ^7
W ЭаО)
ЭУ I
- К
n Эап
ao= ‘
x(n, г) didj -a(j)= a(j, n)
(10.17)
Если x(n, i) принадлежит первому классу и Rn(x(n, г)) < О, то выбираем Rn+1(x(n, г')) = - е„ Кп(х(тг, г)), е0>0.
Функцию Кп(г, j) и коэффициент Кп невозможно определить из интегрального уравнения (10.17) однозначно. Наложим некоторые ограничения на функцию Kn(i, j), а именно введем функцию
КП(М) =
к„
Ж
Эа(;)
ЭУ Э a(t)
a(t')= a(i, n),
(10.18)
a(j)= a(j, n)
где K0*= d-c.
В этом случае формула (10.15) приобретает следующий вид:
ЭУ
а(г, п+1) = а(г, п) -;
Эа(г)
(10.19)
а(:)= а(г, п),
так как с учетом (10.18)
Кп(г, j)
ЭУ
da(j)
dj
a(j)~ aU>n)
ЭУ
Эа(г)
a(i)= a(i, n) '
Из (10.19) следует, что функция (10.18) является континуальным аналогом единичной параметрической матрицы К*. С учетом (10.18) формула (10.17) примет следующий вид:
f ЭУ ЭУ
R„+,(x (п, г)) ~R„(x (n, г)) =-J---- x(n, i) di ~K„---------- (10.20)
da0 a0= a0(n)
В случае неверной классификации
a(i)= a(i, n)
Kn = “^Y~ [(1+eo) RnWn’ *»
OX 1
x(n, i) di J. (10.21)
a(t)= a(i, n)
Таким образом, одним из возможных решений вопроса о выборе параметрических коэффициентов в случае нейрона с континуумом признаков является решение, определяемое формулами (10.18) и (10.21). В любом случае описанный подход сводится к нахождению Kn(i,j) и Кп из уравнения (10.17) с учетом каких-либо дополнительных ограничений. Аналогично случаю континуума нейронов здесь можно усреднять вычисленные значения Кп и Kn(i,j) по тп точкам пространства функций.
Также, как и в предыдущем пункте, возникает вопрос оптимального выбора eQ.
10.5. Особенности алгоритма настройки
континуальной двухслойной нейронной сети
Особенности алгоритма настройки описываемой нейронной сети связаны с заменой структурной матрицы коэффициентов К* на матрицу функций K*(i) при переходе к континууму нейронов в первом слое и на функции двух переменных K(i, j) при переходе от нейрона с конечным числом признаков к нейрону с континуумом признаков во втором слое. Алгоритм выбора K*(i) связан с решением системы (L+1 )-уравнений (если К*(г) - диагональная матрица функций) относительно функций параметра г в то время, как в случае конечного числа гиперплоскостей необходимо найти диагональную матрицу коэффициентов для каждой гиперплоскости, т.е. решить Н систем из (L+l)-ro уравнения, где Я - число нейронов в слое.
Алгоритм выбора K(i, j) состоит в решении интегрального уравнения относительно K(i, j) и коэффициента Кп. На рис. 10.1 и 10.2 представлены разомкнутая структура континуальной нейронной сети и структурная схема алгоритма ее обучения.
a,(i,n) la2(t,n)
Рис. 10.1. Разомкнутая структура континуальной двухслойной нейронной сети
Рис. 10.2 Структурная схема алгоритма обучения двухслойной континуальной нейронной сети (n+1-й шаг)
10.6. Три варианта реализации весовых функций континуального слоя нейронов и соответствующие им процедуры обучения
В данном параграфе рассматривается разомкнутая структура континуального слоя нейронов и процедуры настройки слоя в зависимости от выбора способа реализации весовых функций слоя.
Разомкнутая структура континуального слоя нейронов описывается формулой
L
х2(г) = sign 2 а,(г) х, + а0(г), (10.22)
где х2(г) - выходной сигнал слоя; х, - вектор входных сигналов (в частности вектор табличных признаков); а(г) - вектор весовых функций континуального слоя из класса кусочно-дифференцируемых функций с разрывами первого рода и конечным числом нулей (1=1... L).
Из (10.22) следует, что х2(г) - функция, имеющая вид (рис.10.3), представляет собой последовательность прямоугольников разной длительности и единичной амплитуды. Стоящая под знаком сигнума функция
L
f(i) = 2 а,(г) х, + а0(г)
может иметь сложную форму. Тем не менее вид функции х2(г) определяется лишь числом и положением нулей функции /(г) и не зависит от ее поведения на интервалах знакопостоянства, т.е. между нулями. Следовательно, весовые функции а(г) можно аппроксимировать достаточно грубо, например, кусочнопостоянной функцией (рис.10.4) с конечным числом ступенек или, более точно, кусочно-линейной функцией вида (рис. 10.5).
Предыдущая << 1 .. 64 65 66 67 68 69 < 70 > 71 72 73 74 75 76 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed