Научная литература
booksshare.net -> Добавить материал -> Биология -> Галушкин А.И. -> "Теория нейронных сетей" -> 31

Теория нейронных сетей - Галушкин А.И.

Галушкин А.И. Теория нейронных сетей — М.: ИПРЖР, 2000. — 416 c.
ISBN 5-93108-05-8
Скачать (прямая ссылка): teoriyaneyronnih2000.pdf
Предыдущая << 1 .. 25 26 27 28 29 30 < 31 > 32 33 34 35 36 37 .. 131 >> Следующая

5.1. Постановка задачи
Нейронная сеть может быть представлена в виде эквивалентной системы, приспосабливающейся в определенном режиме к внешним условиям. Общая структурная схема такой системы изображена на рис. 5.1, где х(п) есть многомерный случайный процесс, представляющий собой последовательность образов на входе нейронной сети, п - дискретный ар-
Рис. 5.1. Структурная схема нейронной сети образов
гумент. Сигнал е(п) определяется в частности как указание учителя о принадлежности текущего образа на входе нейронной сети к тому или иному классу. Каждый класс охватывает определенное множество образов, объединенных некоторым общим свойством. Многомерный выходной сигнал системы распознавания у(п) формируется в частности в виде Данных нейронной сети о принадлежности текущего образа к той или иной области пространства решений. В связи с этим рассматриваются X, Е, Y - соответственно пространства образов, указаний учителя и выходных сигналов нейронной сети. Блок настройки параметров нейронной сети, кроме вектора а(п) настраиваемых коэффициентов, в общем случае выдает информацию о структуре преобразования у(х), представляющего собой зависимость выходного сигнала нейронной сети °т входного; g(n) — вектор промежуточных сигналов нейрон-Ной сети.
Входным сигналом нейронной сети является сигнал [х(п), е(п)], одной из характеристик которого является число гра-
даций сигнала е(п) по уровню, определяемое числом образов. При этом независимо от этого сигнал х(п), щий размерность N, в общем случае может быть как ретным, так и непрерывным по амплитуде. Если е(те) одномерный сигнал, квантованный по уровню на две i градаций, имеют дело соответственно с двумя или К к ми образов. Если вектор е(п) имеет размерность JV* и градаций каждой компоненты его по амплитуде рав то число классов
К =(K0f.
Для сигнала е(п), имеющего не дискретное, а непрер распределение, рассматривается случай континуума кл когда задачу настройки нейронной сети при общей поста можно трактовать как задачу оценки системой некоторо прерывного параметра е распределения /(х, е) случайного цесса.
Конкретную задачу настройки (обучения) нейронной сети но проиллюстрировать следующим примером. Рассмотрим ф рование входного сигнала нейронной сети в случае конти признаков в задаче прогнозирования надежности некоторо ройства. На рис. 5.2 x;(t0) - кривые изменения во времени нек го параметра устройства, по которому проверяется надежное испытании, j - номер испытываемого устройства, х0 - до мое значение параметра, ниже которого устройство считает: годным.
Точка пересечения кривой x-(t0) с уровнем х0 определяет работы устройства. Каждой кривой соответствует вектор х.(п лученный квантованием кривой по времени на интервале где Тд - время испытания устройства, выпускаемого из про:
Рис. 5.2. К формированию пространства признаков и указа теля в задаче прогнозирования надежности приборов
ства; компоненты вектора х}(п) соответствуют ординатам Xj(t0) в точках квантования. Таким образом формируется пространство признаков нейронной сети в данной задаче.
Указание учителя может быть сформировано следующим образом. Априори задается ресурс времени работы устройства Т0'. При этом векторы х-(п), фиксируемые точкой пересечения кривой x^tQ) с уровнем х0, лежащим слева от Т0', относятся к первому классу (негодных устройств), а лежащим справа от Т0' - ко второму классу (годных устройств). Соответственно этому вводятся две градации (произвольные) сигнала е(п) по амплитуде, в частности равные ±1. Ось t„ априори может быть разбита на К интервалов с указанием сорта устройства, и сигнал е(п) будет иметь К градаций по амплитуде (например, е=1,...,К); каждому вектору х.(п) будет приписано свое значение 6.
В предельном случае при отсутствии процесса априорного разбиения оси t0 на отрезки системе распознавания образов для каждой кривой х}(<0), как вектора хри), сообщается указание учителя о времени работы устройства до выхода из строя (пересечения x^(t0) уровня х0) в виде величины, имеющей непрерывное распределение.
Задачей исследования характеристик входного сигнала является вывод и анализ выражений для функций распределения вероятностей входных сигналов при различной априорной информации о входном сигнале и различных режимах работы системы.
Предметом исследования в каждом конкретном случае могут быть: совместное распределение /(х,е), условное распределение / '(х/е) совокупности образов х при заданном указании е о принадлежности образов к-му классу, условное распределение / '(х/е), собственные распределения сигналов /(х) и /е(е), а также смешанные моменты этих распределений.
Введением понятия квалификации учителя создается единый подход к решению задач обучения и самообучения. Совместный закон распределения входных образов и сигнала Указания принадлежности образов к классам представлен на основе единого подхода.
5.2. Совместный закон распределения вероятностей входного сигнала для двух классов образов
В задаче обучения нейронной сети принадлежность представителей обучающей выборки к тому или иному классу известна с вероятностью, равной единице, т.е. учитель дает точ-
Предыдущая << 1 .. 25 26 27 28 29 30 < 31 > 32 33 34 35 36 37 .. 131 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed