Научная литература
booksshare.net -> Добавить материал -> Физика -> Гардинер К.В. -> "Стохастические методы в естественных науках" -> 32

Стохастические методы в естественных науках - Гардинер К.В.

Гардинер К.В. Стохастические методы в естественных науках — М.: Мир, 1986. — 538 c.
Скачать (прямая ссылка): stahonicheskiemetodivestestvennaukah1986.pdf
Предыдущая << 1 .. 26 27 28 29 30 31 < 32 > 33 34 35 36 37 38 .. 185 >> Следующая

Через совместные плотности вероятностей можно определить условные плотности вероятностей

Р(х\, tu;*2, h\ --АУиТ^Уг, ••¦)

= р(х\, t\; дс2, /2;у2, т2; ¦¦¦)1р(ух,тх-,у1,т1\...). (3.1.2)

Эти определения справедливы независимо от порядка следования моментов времени, хотя обычно требуется рассмотреть только последовательность времен, нарастающую справо налево, т. е.

t\ > ti > h > ... ^ т, > т2 ^ ... . (3.1.3)

Изучение эволюционного уравнения системы приводит к необходимости рассматривать условные вероятности как предсказания будущих значений переменной X(t) (т.е. jc,, х2, ... в моменты /2. • ••) ПРИ условии, что известны значения в прошедшем (значения У\, у2> ••• в моменты т,, т2, ...).

Понятие обычного стохастического процесса в обшем случае весьма широко. Для того чтобы определить процесс, по меньшей мере нужно знать все совместные вероятности вида (3.1.1). Причем если такого знания оказывается достаточно для определения процесса, то его называют сепарабельным стохастическим процессом. Все рассматриваемые в этой книге процессы предполагаются сепарабельными.
Марковские процессы 71

Наиболее простой вид стохастического процесса — это процесс с полностью независимыми значениями, для которого

р(х 1 > ?2 j *3) ^3 5 •••) П p(*i> О ) (3. 1 .4)

I

здесь время предполагается дискретным. Это равенство означает, что значение переменной X в момент t вовсе не зависит от ее значений в предшествующие либо последующие моменты времени. Еще более специальный случай имеет место, когда р(л/,) не зависят от так что для всех моментов времени закон распределения вероятности один и тот же. Это случай испытаний Бернулли, когда вероятностный процесс воспроизводится в последовательные моменты времени.

Следующим понятием в ряду наиболее простых служит понятие марковского процесса. В нем для определения будущего достаточно знать настоящее.

3.2. МАРКОВСКИЙ ПРОЦЕСС

Условия Маркова формулируются на языке условных вероятностей. Для случая, когда моменты времени упорядочены, как указано в

(3.1.3), потребуем, чтобы условная вероятность полностью определялась знанием состояния системы в самый последний момент времени, т. е.

р(х„ Г,; х2, ?2; ... | J»,, т,; у2, т2; ...)

= Р(хь и\хг, t2; ... |>>„ tJ. (3.2.1)

Это условие служит просто более точной формулировкой предположений, высказанных Эйнштейном, Смолуховским и другими авторами. Уже само по себе оно очень сильное. Так, это условие означает, что все можно определить через простую условную вероятность Р(х 1. t\l-Vp т\)- Например, используя определение условной плотности вероятностир(хх, tx, х2, t2\yx, т,) = р(хх, tx \х2, t2, ух, тх)р(х2, t2\yx, т,) и постулат Маркова (3.2.1), находим

р{хи tt; х2, t2\yu т,) = р(хи г,\х2, t2)p(x2, t2\yu т,). (3.2.2)

Нетрудно видеть, что и произвольная совместная вероятность может быть выражена в следующем простом виде:

р(хх, t1; х2, t2; Х3, ; ... х„, t„)

= Р(* 1, ti\x2, t2)p(x2, t2 |х3, гу)р{хъ ?з|х4, ?4) ••• Р(х„-1, t„_x |х„, t„)p(x„, ?„),

(3.2.3)
72 Глава 3

если только

ti ^ ^2 ^ h 5s 5s t/i-i 5s t/i ¦ (3.2.4)

3.2.1. СОГЛАСОВАННОСТЬ. УРАВНЕНИЕ ЧЕПМЕНА — КОЛМОГОРОВА

В разд. 2.3.3 установлено, что суммирование в совместной вероятности по всем взаимоисключающим событиям, относящимся к одной

случайной переменной, исключает эту переменную, т. е.

^Р(А Л В Л С...) = Р(А Л С...) . (3.2.5)

В

Применяя это правило к стохастическим процессам, получаем два кажущиеся на первый взгляд похожими равенства. Первое из них

Р(х 1, О = J- dx2 p(xi, ?,; х2, t2)

= J dx2 р{хи ?! | х2, t2)p(x2, t2). (3.2.6)

Это равенство в равной мере справедливо для всех стохастических

процессов и стоит первым в иерархии аналогичных равенств для условных вероятностей. Следующим в этом ряду нужно записать второе из упомянутых выше равенств:

р(х,, ?, | х3, ?3 ) = J- dx2 р{хх, ?,; х2, t2\x„ f3)

= J- dx2 p(xi, ?!\x2, ?2; x3, t3)p(x2, ?2\x3, ?3). (3.2.7)

Данное равенство также всегда применимо. Используем теперь условия Маркова. Если /, ^ t2 ^ /3, то можно опустить зависимость от /3 в условной вероятности, содержащей два условия. Это дает уравнение

р(хи ?i | х3, ?3) = J- dx2 р(хи ?, | х2, t2)p(x2, t21 х3, ?3), (3.2.8)

которое называют уравнением Чепмена — Колмогорова^.

В чем состоит существенное различие между (3.2.8) и (3.2.6)? Очевидный ответ состоит в том, что равенство (3.2.6) написано для безусловных вероятностей, тогда как (3.2.7) — для условных вероятностей. Уравнение (3.2.8) — это довольно сложное нелинейное функциональное уравнение, связывающее все условные вероятности р (х:, ti I х}, tj) друг с другом. Соотношение же (3.2.6) просто выражает единовременную вероятность для момента последующего по отношению к /2, через условную вероятность р(xt, /11 jc2, ^)-
Предыдущая << 1 .. 26 27 28 29 30 31 < 32 > 33 34 35 36 37 38 .. 185 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed