Научная литература
booksshare.net -> Добавить материал -> Биология -> Тутубалин В.Н. -> "Теория вероятностей и случайных процессов" -> 86

Теория вероятностей и случайных процессов - Тутубалин В.Н.

Тутубалин В.Н. Теория вероятностей и случайных процессов — М.: МГУ, 1992. — 400 c.
ISBN 5-211-02264-5
Скачать (прямая ссылка): teoriyaveroyatnosteyisluchaynihprocessov1992.djvu
Предыдущая << 1 .. 80 81 82 83 84 85 < 86 > 87 88 89 90 91 92 .. 161 >> Следующая

Дадим теперь математическое определение цепи Маркова.
N
Пусть даны числа «,>0, такие, что S *i = l и для каж-
/-1
дого п> 0 задана так называемая стохастическая матрица 214
Р(п) = ||ру(я)||, т. е. такая матрица, что ри(п) > О,
If
2 Pn(f0™ 1- Скажем, что испытания с номерами 0, 1,..., п
/-1
образуют цепь Маркова, если вероятности элементарных со* бытий задаются формулой (2).
Не мешает, конечно, проверить, что, отправляясь от безусловных вероятностей (2), получим те самые условные вероятности, о которых шла речь выше. Эта проверка совершается автоматически: например,
Р{*(я) - /|Ф — l) = t, х(п — 2) = х(1) —1„
*(0) = *о) = Р ((«,/»... ia-2 Ч- f-t ij)) =
/
_ ~ 2Шп ~ Oi_d
^ (Л ~~2)Рч(п — D U
так как — 1) = 1.
Стохастические матрицы P(n) называются еще матрицами перехода (точнее: матрицами переходных вероятностей). Если матрица перехода Р(я) = Р не зависит от п, то соответствующая марковская цепь называется однородной по времени. Таким образом, если в случае независимых испытаний однородная по времени ситуация характеризуется вероятностями Ри • • • Рх каждого из возможных N исходов, то в случае цепи Маркова имеются N начальных вероятностей Я1, ... , я* и Л/г элементов переходной матрицы (связанных N соотноше-
2 Pij = 1. * = 1,. . ., N j. С ростом числа испытаний
п количество параметров, определяющих вероятности элементарных событий, не изменяется. В принципе начальные вероятности при довольно общих условиях в дальнейшем окажутся несущественными (при больших п), а переходные вероятности Ра могут быть определены по частотам тех случаев, когда за состоянием i следовало состояние j (по отношению к общему числу наблюдений состояния i среди п испытаний).
Концепция зависимости х(п) только от х(п—1) может показаться слишком ограничительной: возможно, например, что х(п) зависит от х(п—1) и х(п—2). Но в этом случае ничто не мешает рассмотреть пары [дг(0), x(l),J [*(1), jc(2)], ... , lx(n—1), х(а)] как значения новой марковской цепи с фазовым пространством (1, ... , Л0Х(1, ... , N). Тогда паре [х(п— 1), х(п)] предшествует пара [х(п—1), х(п—2)], и при фиксировании этой последней пары член х(п— 1) «будущей» пары [х(п— Г), х(п)] точно известен, а член х(п) отделен от
ниямн
215
«прошлых» пар [х(п—3), х(п—2)], ... , [*(0), jc( 1)] не менее чем двумя промежутками времени, т. е. в целом пара [jc(/i— —1), х(п)] при известной паре [х(п— 1, х(п—2)] не должна зависеть от «прошлых» пар. За счет расширения фазового пространства концепция цепи Маркова может быть сделана довольно общей.
Заметим, что в данном рассуждении мы несколько переформулировали концепцию (1) марковского свойства, сказав, что это свойство состоит в том, что «при известном настоящем будущее не зависит от прошлого». Точно понимать эту формулировку нужно следующим образом: при любом натуральном k<n («настоящий момент») называем «прошлым» всевозможные события, порождаемые величинами jc(0), ... ... , x(k—1), а «будущим» — всевозможные события, порождаемые величинами x(k+\), ... , х(п); «настоящим» же называем события, порождаемые случайной величиной x(k). Утверждается, что условная вероятность события АВ, где Л — событие из прошлого, В — событие из будущего (относительно разбиения, порождаемого настоящим, т. е. {x(k) = j, /= 1, ... , N}, равна произведению условных вероятностей. Нетрудно проверить, что такая формулировка эквивалентна заданию вероятностей элементарных событий в виде (2).
Какие достижения в описании реальных явлений связаны с изложенным понятием цепи Маркова? Например, чередование гласных и согласных букв в тексте «Евгения Онегина» отвечает случаю N = 2. Начальные вероятности здесь принимаются равными частотам гласных и согласных букв (причина этого станет ясной ниже). Для описания модели простой цепи Маркова нужно определить четыре элемента матрицы
N
\\рц\\, но условия 2 Р;/=1, i=l, 2, показывают, что достаточ-(=1
но определить лишь два числа, например частоту следования гласной буквы за гласной и гласной буквы за согласной. Оказывается, что из знания этих параметров однозначно вытекает коэффициент дисперсии числа гласных букв в отрезке текста длиной 100 букв (как вытекает, это предмет излагаемой далее теории). Он оказывается равным примерно 0,3 (при эмпирическом значении 0,2). Таким образом, полного согласия с моделью простой цепи Маркова нет, но все же результат, состоящий в том, что колебания числа гласных в длинном отрезке текста можно довольно близко объяснить на основании свойств локального взаимодействия (т. е. взаимодействия близких, в данном случае — рядом стоящих букв), представляется замечательным. А. А. Марков замечает, что лучшего результата, возможно, удалось бы достичь с помощью модели сложной цепи, т. е. с помощью усложнения фазового пространства, как описано выше.
Предыдущая << 1 .. 80 81 82 83 84 85 < 86 > 87 88 89 90 91 92 .. 161 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed