Научная литература
booksshare.net -> Добавить материал -> Физика -> Гардинер К.В. -> "Стохастические методы в естественных науках" -> 25

Стохастические методы в естественных науках - Гардинер К.В.

Гардинер К.В. Стохастические методы в естественных науках — М.: Мир, 1986. — 538 c.
Скачать (прямая ссылка): stahonicheskiemetodivestestvennaukah1986.pdf
Предыдущая << 1 .. 19 20 21 22 23 24 < 25 > 26 27 28 29 30 31 .. 185 >> Следующая


(2) Когда рассматриваются несколько моментов времени: например, какова вероятность того, что ([в момент tl есть тх тигров и п, мышей] и [в момент t2 есть т2 тигров и п2 мышей])? При рассмотрении такой вероятности мы составили одно совместное событие из событий, от-
Понятия теории вероятностей

51

носящихся как к моменту tv так и к моменту t2¦ По существу различий между двумя указанными случаями нет, за исключением той существенной роли, которую время играет в динамике развертывания событий.

2.3.2. УСЛОВНЫЕ ВЕРОЯТНОСТИ

Мы можем фиксировать условия осуществления событий, представляющих интерес, и рассматривать только те случаи, когда эти условия выполняются, например рассматривать вероятность наличия 21 буйвола, если известно, что имеются 100 львов. Что это значит? Ясно, что нас интересует только указанная часть событий из множества В = {все случаи, когда имеется ровно 100 львов]. Это означает, что нужно определить условную вероятность, соответствующую подмножеству событий, которые содержатся в В. Определим условную вероятность соотношением

отвечающим интуитивному представлению, что условная вероятность событий и еА при условии о: е В находится делением вероятности совместного события на вероятность того, что we В.

Можно написать аналогичное соотношение, поменяв местами А и

В, т. е. имеем

Таким образом, нет теоретического различия между, например, вероятностью Р j (21 буйвол) при условии (имеется 100 львов)) и обратной ситуацией. Однако, когда рассматриваются два момента времени, различие имеется. Например, естественно рассмотреть вероятность нахождения частицы в положении х} в момент tx при условии, что в предыдущий момент t2 она находилась в положении х2. Такая вероятность, как будет видно дальше, играет в книге важную роль. Обратная формулировка звучит несколько странно, а именно: вероятность того, что частица в момент tl занимает положение дг, при условии, что в более поздний момент времени t г она будет находиться в положении х2. Такая формулировка сродни ясновидению, и трудно предположить, чтобы кто-то в реальной ситуации захотел рассматривать такую величину, хотя в принципе она вполне аналогична «естественной» условной вероятности, для которой выполнение условия предшествует событиям1*.

11 Обе указанные условные вероятности становятся равноправными и «естественными», если имеются многократные записи процесса, которые можно «прокручивать» в любую сторону. — Прим. ред.

Р(А\В)=Р(А П В)!Р{В)1

(2.3.2)

Р(А П В) = Р(А\В)Р(В) = Р(В\А)Р(А).

(2.3.3)
52 Глава 2

«Естественное» определение уже встречалось в этой книге: например, введенная Эйнштейном величина </>(Д)с/Д (разд. 1.2.1) есть вероятность того, что частица, находящаяся в положении х в момент t, будет находиться в интервале [х + Д, х + Д + dA] в момент t + т; подобным же образом это определение возникало и в других примерах. Наша интуиция по аналогии с тем, что было высказано Эйнштейном (см. приведенный выше отрывок из его статьи), говорит, что этот вид условной вероятности прямо связан с временным развитием вероятностной системы.

2.3.3. СООТНОШЕНИЯ МЕЖДУ СОВМЕСТНЫМИ ВЕРОЯТНОСТЯМИ РАЗЛИЧНЫХ ПОРЯДКОВ

Предположим, что имеется набор множеств В;, таких, что

В, Л Bj = 0 (2.3.4)

U Bt = Q, (2.3.5)

f

т.е. эти множества разбивают пространство fi на непересекающиеся подмножества. Тогда

U (А П В,) = А П (U В,) = АП!2 = А, (2.3.6)

: i

Используя теперь вероятностную аксиому 3, видим, что А П В, удовлетворяет условиям, налагавшимся там на А(; поэтому

Е Р{А п в,) = Ft и (А и В,)] (2.3.7)

i г

= Р(А) (2.3.8)

и, следовательно,

^Р{А\ВтВд^Р{Л), (2-3.9)

Таким образом, суммирование по всем взаимно исключающим воз-

можностям В исключает эту переменную.

Итак, в общем случае

? P{At П Bj Г) Ск ...) = Р (Bj П Ск П -..) • (2.3.10)

Результат (2.3.9) имеет важные следствия для развития теории стохастических процессов, которая существенно основывается на понятии совместной вероятности.
Понятия теории вероятностей 53

2.3.4. НЕЗАВИСИМОСТЬ

Необходимо дать определение независимых событий исходя из понятия вероятностей. Два множества событий А и В называются независимыми, если условие принадлежности данного события множеству В не оказывает никакого влияния на вероятность принадлежности этого события множеству А. Таким образом, условная вероятность Р(A IB) не должна зависеть от В, и, следовательно,

Р(А П В) = Р{А)Р(В), (2.3.11)

В случае нескольких событий требуется некоторое уточнение. События ueA'Q = 1, 2, ... , п) считаются независимыми, если для любого подмножества (/',, /2, ... , ik) множества (1, 2, ...', п)
Предыдущая << 1 .. 19 20 21 22 23 24 < 25 > 26 27 28 29 30 31 .. 185 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed