Научная литература
booksshare.net -> Добавить материал -> Биология -> Розен Р. -> "Принцип оптимальности в биологии " -> 75

Принцип оптимальности в биологии - Розен Р.

Розен Р. Принцип оптимальности в биологии — М.: Мир, 1969. — 215 c.
Скачать (прямая ссылка): principoptimizaciivbiologii1969.djvu
Предыдущая << 1 .. 69 70 71 72 73 74 < 75 > 76 77 78 79 80 81 .. 87 >> Следующая

Вначале будет, пожалуй, интересно описать одну простую нейронную модель обучения, предложенную Ландалем [106]. Основные контуры этой модели указаны на фиг. 32.
На этой схеме S] и S2 представляют два стимула одинаковой интенсивности, поступающие из внешней среды. Действие лишь одного стимула — Si или S2— вызывает соответственно реакцию Rx или R2. Проблема возникает тогда, когда оба
стимула — S\ и S2— действуют одновременно. В случае, изображенном на фиг. 32, предполагается, что правильной реакцией является Ri, т. е. что схема «заучивает» Ri. Контуры обратной связи С, С' играют роль регуляторов, создающих требуемое подкрепление. Контур С создает «положительное» подкрепление; если возникает реакция Ru то влияние контура а^С усиливается. Контур С' производит отрицательное подкрепление; при возникновении реакции R2 влияние контура а2Ь2С' ослабляется. Перекрестные связи а\Ь2, а2Ь\ являются тормозными: стимул Si тормозит реакцию R2, а стимул S2 — реакцию Ru Торможение в точке а2, производимое через контур С', ослабляет, естественно, торможение реакции Ri, осуществляемое через связь а2Ь\.
Какова будет реакция системы на первую стимуляцию — R\ или R2 — зависит от случайных обстоятельств, но даже из качественных соображений ясно, что при повторных стимуляциях эта система рано или поздно начнет все время давать реакции R\. Количественное исследование, например расчет ожидаемого числа неверных ответов при N пробах, проведенное на основании теории нейронного возбуждения Рашевского (см.. [127], особенно гл. 32),' дает результаты, очень близкие к ситуациям, наблюдаемым в ряде опытов по обучению; по поводу подробностей мы отсылаем читателя к работе Ландаля [107].
Сравнивая фиг. 32 со схемой перцептрона (фиг. 31), легко заметить большое сходство между ними, особенно если два выхода на фиг. 32 заменить одним выходом, предположив, что он может принимать два состояния (приписав, скажем, Rj двоичную цифру 1, a R2 — цифру 0), и, кроме того, объединить контуры С, С' в один общий блок. Схема на фиг. 32 должна также напомнить читателю схему на фиг. 30, так как модель эмбриональной дифференцировки, основанная на теории химической регуляции, формально тождественна простым -моделям обучения Ландаля '. Этот факт далеко не случаен и имеет большое значение (см. по этому поводу разд. 11.4).
Обратимся теперь к проблемам и методам, характерным для стохастической теории обучения [109, 110], для чего рассмотрим опыты по обучению крысы ,в лабиринте, который состоит из
1 Формальная эквивалентность между нейронными схемами обучения и моделями дифференцировки Жакоба и Моно в неявном виде учитывается в статье Сугита [108]. В этой работе по существу показана аналогия между моделями Жакоба и Моно и теорией дискретных нервных сетей Мак-Калло-ка—Питтса (см [12], стр. 207—229). Ввиду хорошо известного соответствия между дискретными сетями и непрерывными нейронными моделями Ландаля это позволяет непосредственно перейти от модели дифференцировки к моделям обучения Ландаля и наоборот.
ряда последовательно разветвляющихся проходов. У каждого разветвления (пусть их число равно, скажем, N) крыса сталкивается с двумя альтернативами, а именно с вопросом о том, повернуть ли ей вправо или влево. С самого начала у нее нет никакой внутренней причины для предпочтения одной из этих возможностей другой, и поэтому вначале она делает выборы по большей части случайно. После того как крыса выберется из лабиринта несколько раз и каждый раз получит у выхода поощрение в виде кусочка пищи, вероятности того, что она выберет поворот налево или направо при каждом конкретном выборе, начинают существенно отличаться от того случайного распределения, которое наблюдалось вначале; в каждом случае они оказываются все более близкими к 1 или к 0. В конце концов эти вероятности стабилизируются, и тогда можно сказать, что крыса «научилась» выбираться из лабиринта. Такие эксперименты позволяют получить очень ценную информацию относительно процесса обучения; так, например, это дает возможность установить, сколько проб требуется для того, чтобы вероятности стабилизировались, как это время стабилизации зависит от числа N и как оно изменяется в зависимости от степени подкрепления.
Такого рода эксперименты лежат в основе стохастической теории обучения. Предполагается, что субъект поставлен перед некоторым множеством альтернатив, в которых он должен сделать последовательные выборы, или испытания. Предположим для простоты, что имеются лишь две альтернативы: Аи А2. Пусть рп-\ — вероятность того, что при (п—1)-м испытании выбирается возможность А\\ тогда 1—рп-1 есть вероятность того, что при этом испытании выбирается возможность А2. Задача состоит теперь в том, чтобы найти вероятность рп выбора Ai при п-й пробе, зная рп-\ и «правильность» выбора, произведенного при (п—1)-й пробе (оценкой «правильности» служит характер подкрепления). Обычно полагают, что имеют место правила, определяемые линейными зависимостями, а именно
если было выбрано А2. Здесь а\, а2> он, а2 — подобранные соответствующим образом постоянные, характеризующие «правильность» полученного результата. Таким образом, если задана начальная вероятность ро (равная, скажем, '/г), то получается ряд
Предыдущая << 1 .. 69 70 71 72 73 74 < 75 > 76 77 78 79 80 81 .. 87 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed