Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 46

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 40 41 42 43 44 45 < 46 > 47 48 49 50 51 52 .. 131 >> Следующая

Из (6.23) следует, что в случае Ьс=1 и [afcfc,]=A1 , где Ах~ единичная матрица, имеют дело с режимом обучения. В случае Ьс=0 при произвольных значениях afc, k система работает в режиме самообучения. В общем случае, когда объективная Ь и субъективная Ьс квалификации учителя совпадают, система, способна к настройке. В том случае, когда учитель имеет нулевую квалификацию, а систему принуждают работать в режиме обучения, она оказывается неспособной к настройке.
Вышеизложенный материал позволяет следующим образом классифицировать априорную информацию, необходимую для построения оптимальной модели нейронной сети: а) число классов образов (два, К, континуум); б) характер нестационарно-сти входного сигнала; в) функция квалификации учителя нейронной сети от двух аргументов, являющихся индексами соответствующих классов; г) функция «собственного мнения учителя нейронной сети о своих способностях»; это также функция двух аргументов, являющихся индексами соответствующих классов; д) априорные вероятности появления классов; е) структура пространства решений нейронной сети (два, Кр, континуум решений); ж) класс критериев первичной оптимизации нейронной сети; з) функция потерь при отнесении нейронной сетью образов одного класса к другому.
Это указывает на значительность объема априорной информации, необходимой для построения оптимальной модели нейронной сети. Необходимо отметить, что иногда отпадает
необходимость в некотором виде априорной информации, например в априорных вероятностях появления классов при использовании минимаксного критерия или эмпирического байесовского подхода. Количество ^приорной информации о виде /'(х/е) определяет пути реализации оптимальных моделей нейронной сети, указанные в табл. 6.1.
Литература
6.1. Галушкин А.И. Многослойные системы распознавания образов. М., МИЭМ, 1970, 167 с.
6.2. Галушкин А.И. Выбор критериев первичной оптимизации и построение оптимальной модели системы распознавания К классов образов в режиме обучения./ Сб. «Автоматическое управление и вычислительная техника», вып. 10, 1972.
6.3. Галушкин АЛ., Зотов ЮЛ, Шикунов ЮА. Оперативная обработка экспериментальной информации. -М., Энергия, 1972, 360 с.
6.4. Галушкин А.И. Методы синтеза систем распознавания образов. - «Труды МИЭМ», 1969, вып. 6, с. 133-172.
6.5. Галушкин А.И. Единый подход к решению задач обучения и самообучения систем распознавания образов. - «Труды МИЭМ», 1970, вып. 6, с. 104-120.
6.6. Викторов Н.В., Галушкин А.И. Построение и исследование систем распознавания образов при произвольной «квалификации учителя». /Сб. «Медицинская радиоэлектроника», 1976, с.95-106.
Глава 7. Анализ разомкнутых нейронных сетей
7.1. Законы распределения аналоговой
и дискретной ошибок нейронной сети
Исходным материалом для анализа разомкнутых нейронных сетей являются заданная в общем виде плотность распределения входного сигнала и структура разомкнутой нейронной сети. Рассматриваются такие структуры разомкнутых нейронных сетей, как нейроны с двумя, Кр и континуум решений, нелинейные и многослойные нейронные сети из нейронов. Варианты характеристик входного сигнала представлены случаями двух, К и континуума классов образов при произвольной квалификации учителя.
Целью анализа разомкнутых нейронных сетей является вывод и исследование выражений для распределений и моментов распределений промежуточных и выходных сигналов нейронной сети. В данной главе в основном производится анализ распределений и моментов распределений ошибок нейронной сети. На основании результатов анализа разомкнутых нейронных сетей выбираются функционалы вторичной оптимизации.
Под функционалом вторичной оптимизации понимается функционал, выражаемый через параметры распределений текущих сигналов и ошибок нейронной сети и непосредственно минимизируемый в многослойных нейронных сетях при настройке по замкнутому циклу. При этом основной является задача формирования функционала вторичной оптимизации, соответствующего заданному критерию первичной оптимизации; соответствие понимается в смысле совпадения параметров нейронной сети при обеспечении минимума функционалов первичной и вторичной оптимизации.
7.1.1. Нейрон с двумя решениями
Преобразование, осуществляемое нейроном с двумя решениями, может быть представлено в следующем виде:
N
у(п) = sign X cur/n) = sign g(n). (7.1)
t=0
Выражения для аналоговой и дискретной ошибок нейрона имеют вид
xa(n) = e(n) - g(n); xg(n) =e(n) ~ y(n). (7.2)
Функция распределения входного сигнала при К—2 равна мхл.5):
( 1 1 -АгД(х)+ 4 Л/2(х) при 8=1,
1 1 1
4 Вj/j(x) + В2/2(х) при е=-1.
Здесь
Аг ~ [2+(с2-с1) - Ь1(с1+с2)]р1;
\ = [2+(C2_Cl) + bjtCj+C^JpjJ Bi ~ [2+(Vci) + b1(c1+c2)]pi;
В2 ~~ [2+(с2-сг) - Ь2(с1+с2)]р2.
Предыдущая << 1 .. 40 41 42 43 44 45 < 46 > 47 48 49 50 51 52 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed