Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 102

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 96 97 98 99 100 101 < 102 > 103 104 105 106 107 108 .. 131 >> Следующая

проксимации первого порядка] на неполном наборе перемен-] ных, определяемых видом разделяющей поверхности, показанной на рис. 13.16 (табл. 13.7). i
Рис. 13.16. Иллюстрация к синтезу нейрона второго слоя двухслойной нейронной сети при неполностью определенной логической функции е(у)
Таблица 13.7
г 0 1 2 3 4 5 6 7
у1 1 1 1 1 1 -1 -1 1
У] -1 1 1 1 -1 1 -1 1
V, -1 -1 -1 -1 1 1 1 1
? 1 1 1 - -1 -1 1 -1
Таким образом, общая схема синтеза нейрона методом ми-1 нимизации функционала заключается в следующем (переход! к каждому следующему пункту обусловлен нереализуемостью логической функции): 1) определение характеристического!
вектора b; 2) определение порога Ь0; 3) применение аппроксимации второго порядка и т.д.
Вполне очевидно, что изложенный метод синтеза нейрона эквивалентен обычным методам синтеза нейронных сетей, настраивающихся по разомкнутому циклу, при учете высших моментов входного сигнала нейронной сети. Особенность его заключается в том, что здесь гиперплоскость, реализуемая нейроном, проводится с учетом высших моментов (по разомкнутому циклу), а раньше, при учете высших моментов, проводилась соответствующая нелинейная гиперповерхность. В данном случае видно, что при аппроксимации первого порядка характеристический вектор есть вектор разделяющей поверхности проведенной посреди центров двух классов (это вектор есть полусумма векторов математических ожиданий первого и второго класса).
13.4.3. Синтез нейрона по таблицам пороговых функций
Достаточно большое внимание, которое выше было уделено синтезу нейрона второго слоя многослойной нейронной сети из нейронов с двумя решениями, объясняется характерными особенностями, возникающими при оперировании в двоичном пространстве выходными сигналами нейронов первого слоя. В принципе для синтеза нейрона второго слоя может быть применен любой из итерационных методов настройки по замкнутому циклу, разработанный в гл.9.
Синтез нейрона по таблицам пороговых функций [13.5] основан на использовании таблиц характеристических векторов логических функций. Как указано в [13.5], в тех случаях, когда реализация логической функции на одном нейроне возможна, использование таблиц позволяет получить оптимальные (в смысле минимума суммы весов и порога) параметры нейрона. Метод синтеза нейронов по таблицам пороговых функций применим в том случае, когда число нейронов в первом слое нейронной сети не превышает семи. Необходимо отметить, что для большинства инженерных задач это вполне приемлемо, так как гиперповерхность, составленная из кусков семи гиперплоскостей, является достаточно гибкой даже в двухслойной нейронной сети. Процесс получения таблиц характеристических векторов и соответствующих векторов весовых коэффициентов нейрона второго слоя нейронной сети подробно описан в [13.5]. Про-
цедура синтеза нейрона, имеющего до семи входов, состоит в следующем:
1. Определяем характеристический вектор Ь.
2. Образуем убывающую последовательность абсолютных величин | Ь{ | (г = О, Нх) коэффициентов характеристического вектора логической функции (слева направо) и проверяем ее наличие в соответствующей таблице. Если такой последовательности в таблице нет, то данная логическая функция не реализуется на одном нейроне и процедура синтеза заканчивается.
3. Если последовательность найдена в таблице, то данная логическая функция реализуема на одном нейроне. Вектор весовых коэффициентов а нейрона второго слоя нейронной сети находим следующим образом. Выписываем последовательность | а( |, смежную с последовательностью ] Ь. | в таблице. Затем делаем перестановки и изменения знаков а{ в этих последовательностях в точном соответствии с теми перестановками и изменениями знаков, которые делались в векторе Ь для нахождения его канонического представления в таблице. В результате получаем Н:+1 элементов = (г'0, ..., Н1), которые представляют собой весовые коэффициенты нейрона второго слоя нейронной сети.
13.5. Алгоритм обучения второго и третьего слоев нейронов трехслойной нейронной сети
Задача обучения второго и третьего слоя трехслойной нейронной сети, если первый слой является обучаемым, является самостоятельной задачей обучения двухслойной нейронной сети при двоичных входных сигналах. В данном параграфе рассматриваются два метода построения двух выходных слоев трехслойной нейронной сети: построение в виде порогово-дизъюнктивной сети [13.5] и построение в виде двух слоев нейронов с настраиваемыми коэффициентами.
Исходными данными для синтеза порогово-дизъюнктивной сети является полностью определенная логическая функция е(у). Синтез порогово-дизъюнктивной сети проводится в следующем порядке:
1. Выполнение процедуры Квайна-Мак-Класки над функцией е(у), пока не получим всех ее простых импликантов.
2. Находим все общие пересечения (центры тяжести двух или более простых импликантов и объединяем в звезды те
простые импликанты, которые имеют общий центр тяжести. Таким образом, звездой является объединение нескольких простых импликантов, имеющих общий центр тяжести.
Предыдущая << 1 .. 96 97 98 99 100 101 < 102 > 103 104 105 106 107 108 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed