Вероятность: основные понятия, структура, методы. - Скороход A.B.
Скачать (прямая ссылка):
__/1 (х) я_ 1
/1(х)Я + /,И(1-я) И
Обозначим §(л) минимальный убыток, который мы получим,
принимая решение, не производя наблюдение. Если принята
гипотеза Но, убыток равен Ьп, а если гипотеза Яь то а(\—я),
так что g{:zl) =Ъп/\а{\—п).
Пусть, далее, р(я) = т1 р(я, т, й*), где инфимум берется по
всем последовательным решениям. Функция р(я) удовлетво-
ряет уравнению
p(я)^g(л)Л(c + M„p(лXl)), (16)
смысл которого заключается в том, что минимальный убыток
можно получить, либо приняв решение до наблюдений, либо
произведя одно наблюдение хх (убыток от этого с), а затем,
учитывая, что теперь вероятность гипотезы стала яЖ1, можем
получить минимальный убыток р(яЖ1), который нужно усреднить
по априорному распределению хх. Уравнение (16) имеет единст-
венное решение, которое можно найти методом последовательных
приближений, полагая, например,
р0(л) = 0, pn(л) = g(л)A(c + Mnvn_x (пХ1)),
п>\, р(я) == Ит ря(я).
п-юо
Из соотношения (15) легко видеть, что р(л) выпукла вверх, а
из (16), что £(л)=р(л) при §(я)^с. Поэтому найдутся та-
кие числа 0<<71<<72<1, что £(я)>р(л) при яб(дьд2), Я(л) =
= р(л) при л^дь При этом £(я)=6л для л^<7ь<7(л) =
= Ь(1—л) для л^<72. Если я^<7ь то нужно, не производя наб-
людений, принять гипотезу Но, если л^<?2, то нужно, не про-
изводя наблюдений, принять гипотезу Н\. Эти соображения
позволяют построить байесовское решающее правило следу-
ющим образом. Предположим, получены наблюдения
Х\, . . . , хп и до п-го шага решение не принято. Тогда условная
вероятность гипотезы Я[ при данных наблюдениях будет
14—2550 209
, *__/, (X,) ... /, (Хя)Я_
П(хи •••'•х:^-/1(Л:1).../1(х„)я + /„(х1).../о(хя)(1-я) *
При п(хи ..., хп) нужно принять гипотезу Но, при
п{х\,...,хп)^цч — гипотезу Ни при Ц\<.л(х\,... ,хп)<а2
продолжать наблюдения. Положим
п
■ _ У, (1-Я) р .... ?г(1—Я) ТТ /у{Хк)
Л- (1-?1)я ' (1-?,)" ' Р /•(■**) '
Тогда байесовское решающее правило определяется так:
т — первый момент, когда рпб(Л В), гипотеза Я0 принимается
при р„<]Л гипотеза Н\ — при рп^В.
Глава 2
УПРАВЛЯЕМЫЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ
Мы постоянно сталкиваемся с необходимостью управлять
как производственными процессами, так и процессами, проте-
кающими в общественной жизни, в частности процессами на-
учного познания природы и общества. Теория управляемых
процессов рассматривает такие модели, в которых можно ко-
личественно оценить результат управления процессом. В уп-
равляемых случайных процессах течение процесса зависит от
случая и мы оцениваем управление по средним значениям ко-
личественных характеристик. Наиболее характерный пример—
автоматические системы управления, рассматриваемые с уче-
том возможных случайных разладок. В этой главе рассматри-
ваются некоторые задачи теории управляемых случайных про-
цессов, позволяющие получить представление об основных по-
нятиях теории и используемых в ней методах.
§ 1. Управляемые случайные последовательности
Рассмотрим сначала управляемый случайный процесс с
дискретным временем. Это более простой вариант процесса,
зде^ь проще и определение процесса, и постановка задачи, и
ее решение. Пусть (Х,$§), (и, с&)—два измеримых простран-
ства, первое называется фазовым пространством процесса, вто-
рое—фазовым пространством управления. Чтобы определить
управляемый случайный процесс, рассмотрим сначала вырож-
денный случай, когда случайность отсутствует. Процесс внеш-
не проявляется двумя последовательностями: {хп, п~^>?0} в X я
{ип, п^О} в и—'Последовательностью состояний управляемо-
го процесса и последовательностью управлений. Управления
выбираются произвольно и определяют состояния управляемо-
го процесса после начального положения, при этом для опре-
деления состояния в момент ^ нужно знать управления лишь
предыдущие моменты времени. Таким образом управляемый
процесс определяется последовательностью функций
*1=Ы*0> "о)>*2 = /2(*0, «О, «О, • • • ,Хп = 1п(Х0, и0, ии. . . , Пп).
Заметим, что более естественное определение процесса, при
котором состояние в момент / определяется предыдущими
состояниями и управлениями до момента ^, очевидно сводится
к сформулированному выше.
При определении случайного управляемого процесса будем
считать, что распределение состояния процесса в момент ? за-
висит от предыдущих состояний процесса и управлений до мо-
мента Поэтому такой процесс задается последовательностью
условных распределений
рп (В/хо, хп-\, ы0, «„_)), га=0, 1,2,...,
определяющих вероятность того, что состояние процесса в мо-
мент 1=п принадлежит В^9%, если предыдущие значения про-
цесса х0, . . ., хп-\, а управления — и0, ии . . ., ип-\ (распределе-
ние состояния процесса в момент t=0 определяется функцией
Ро(В)). Будем предполагать, что функция рп зависит
^"(^^"-измеримо от своих аргументов. Обычно задача
управления состоит в выборе «оптимального» управления.
Уточнению смысла этого термина посвящен следующий пункт.