Научная литература
booksshare.net -> Добавить материал -> Биология -> Тутубалин В.Н. -> "Теория вероятностей и случайных процессов" -> 95

Теория вероятностей и случайных процессов - Тутубалин В.Н.

Тутубалин В.Н. Теория вероятностей и случайных процессов — М.: МГУ, 1992. — 400 c.
ISBN 5-211-02264-5
Скачать (прямая ссылка): teoriyaveroyatnosteyisluchaynihprocessov1992.djvu
Предыдущая << 1 .. 89 90 91 92 93 94 < 95 > 96 97 98 99 100 101 .. 161 >> Следующая

Полагая Х"(0)=—о2, видим, что о2 вещественно и неотрицательно. Если о2>0, то DS„ имеет порядок величины па2 если же о2=0, то DSn ограничены при всех п. Вышеприведенные рассуждения показывают, что случай о2=0 вполне возможен. По-видимому, неизвестны достаточно общие и легко проверяемые условия, при которых о2>0, хотя чаще всего бывает именно этот случай.
236
Теорема 2 (центральная предельная теорема). При я-+оо распределение нормированной суммы Sn=(Sn— —па)/Уп стремится к нормальному распределению N(О, о) с нулевым средним и дисперсией о2 (в смысле слабой сходимости).
Замечание. При о2>0 получается содержательная предельная теорема; при о2=0 мы делим случайную величину Sn—па, дисперсия которой ограничена, на Vn-*-oо. Нормировка оказывается слишком сильной, в пределе получается вырожденное распределение (сосредоточенное в точке 0 с вероятностью 1), и мы не получаем информации о функции распределения ненормированной суммы, т. е. центральная предельная т.еорема малосодержательна (сводится к утверждению, что (5„—na)/Vn-*-0 по вероятности).
Доказательство теоремы 2. Не ограничивая общности^ предположим, что А/ (0)=ia=0. Тогда (S„—
—па)/Vn=S„/Vn и, применяя (2), получаем
Mexp (itSn/yrn)=kn(t /Уп)(р (< V~n)e) X X Мt iVn)) + о(1) = (>.(0) + >/(0) t IV7[+ + у >"(0) (t IVn f -f о [(t IVn J*J)" X
X (p{t /J/л") e)(«e[t IVn)) + o(l) =
= ^1 _L o4*/n + o(tVn)yx
X {p(t IVn) <?)(*<? (* IVn)) + o(l) -* exp (— aV/2),
что отвечает нормальному распределению N(О, о). Теорема доказана.
§ 3. Примеры марковских цепей и некоторые дополнения
3.1. Цепь с двумя состояниями. Пусть цепь имеет два состояния: Х={0, 1}, как, например, в случае гласных и согласных букв в русском тексте. Переходная матрица может быть записана в виде
/РыРоЛ = /Ри 1 ~Ро \ _ (Ро Яо \ ?• - 1 ~Ро.
\PitPnl \Pil-A/ \Pi9i/’ 01=1 —Ри
где Рю=Ро. Pio=Pi — соответственно вероятность следования нуля за нулем и нуля за единицей.
Стационарное распределение (р, 1—р) находится из уравнения: рр0+ Ь—Р)Р\=Р, откуда p=pi/(\+pl—ро).
237
Для большей наглядности сравнения с испытаниями Бернулли перепараметризуем переходную матрицу. При взгляде на последовательность нулей и единиц, полученную из какого-то опыта, мы прежде всего оцениваем доли нулей и единиц, которые будут близки к стационарным вероятностям р и q = = 1—р. Введем еще параметр 6=ро—ри В терминах параметров р, q, б имеем p0=p + 6q, pi=p—6p, 6=ро—pi-Займемся теперь числом нулей в п испытаниях. Полагая
«I
/(0) = 1, /(1) =0, получим, что 2 / (*(?)) есть числ0
*=t
нулей в испытаниях с номерами 1, 2....... п. Для нахождения
асимптотики распределения Sn учтем, что при стационарном начальном распределении fASn=np; что же касается дисперсии DS„, то она (асимптотически при л-*-оо) есть па2, где о2 находится следующим способом.
Пусть А,(/) есть то собственное значение матрицы
((p + bq)eu \-p-6q \
\(р-Ьр)еи \-р + Ьр ]'
которое при / = 0 обращается в единицу. Тогда
о2------Х"(0) - р2.
Чтобы найти X(t), нужно всего лишь решить квадратное уравнение det(P(7)— ХЕ) =0. Так как detP(O) =detP = 6, то это уравнение принимает довольно простой вид
X2 — (1 — р + 6р + (р + bq) е") X + бeit = 0. (1)
Все-таки решение уравнения (1) по школьной формуле не приносит удовольствия, и как кажется, проще всего поступить следующим образом. Напишем разложение
X(t) = 1 + Г (0)* +-^"(0)/2 + 0(t2) (2)
и учтем, что A/(0)=ip и что е“=1 + it—t2/2 + o(t2).
Тогда, приравнивая в (1) нулю члены до второго порядка по t, получим для неизвестного X" (0) некоторое уравнение, из которого (после небольшого счета) найдем
-Я"(0) = р(1 — б + 2q&) / (1 — 6)
и, наконец,
о* = pq(l + 8)/1 —б. (3>
Поскольку для испытаний Бернулли дисперсия числа успехов есть npq, то коэффициент дисперсии получается равным
238
D Sn
npq
1—8
Это и есть та формула, с помощью которой А. А. Марков объяснял дисперсию числа гласных в 100 последовательных буквах текста. Видим, что если 6>0, т. е. ро=Роо=Р+&Я>Р (нуль после нуля более вероятен, чем в стационарном распределении), то коэффициент дисперсии больше единицы. Интуитивный смысл этого состоит в следующем. Представим себе, что нуль «тянет за собой» нуль, а единица — единицу так, что если в нулевом испытании появился нуль, то и все остальные испытания (с близкой к 1 вероятностью) тоже дают нули (а если в нулевом испытании единица, то все остальные тоже единицы). Тогда для числа нулей в п испытаниях возможно либо очень большое значение порядка п, либо очень маленькое — близкое к ну/ио (при этом можно взять p = q=> 1/2, 6*1, матрица Р будет близкой к диагональной). Поэтому дисперсия числа нулей в п испытаниях будет большой.
Наоборот, если нуль с большей вероятностью «тянет» единицу (и наоборот), то в л испытаниях нулей и единиц будет примерно по п/2, и дисперсия числа нулей окажется малой.
Предыдущая << 1 .. 89 90 91 92 93 94 < 95 > 96 97 98 99 100 101 .. 161 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed