Научная литература
booksshare.net -> Добавить материал -> Биология -> Тутубалин В.Н. -> "Теория вероятностей и случайных процессов" -> 84

Теория вероятностей и случайных процессов - Тутубалин В.Н.

Тутубалин В.Н. Теория вероятностей и случайных процессов — М.: МГУ, 1992. — 400 c.
ISBN 5-211-02264-5
Скачать (прямая ссылка): teoriyaveroyatnosteyisluchaynihprocessov1992.djvu
Предыдущая << 1 .. 78 79 80 81 82 83 < 84 > 85 86 87 88 89 90 .. 161 >> Следующая

яД ~V 2
к
cos ukA sin (цД/2)
14— 2567
209
K2/i:A|u|<0,O1/«K2.
т. е. |и|>200/Д=32 с.
Следовательно (так как функция Kh(u) четная), отрезок, на котором наблюдается \(t), придется слева и справа сократить на 32 с. Это даст очень хорошую точность установления, так как нас интересует ошибка |тр,(?)12, которая будет порядка (0,01)2 = 10-4.
Подсчитаем (при кФО, случай k=0 аналогичен)
ОО
| кЫМ|*& = 2Д. ^ =
— оо
Таким образом, для коэффициента вариации 0,05 имеем условие
УЩГ- 1/ ]/Д~= 0,05, откуда Т = 400 • 4я/Д = 800 с.
Здесь Т есть общее время наблюдения процесса т)Л('0-т е-всего нужно 800 с+64 с=864 с («15 мин).
Время, которое нужно, чтобы различить значения спектральной плотности с интервалом в 1 Гц и оценить их с хорошей точностью, оказывается довольно большим.
Многие случайные процессы ведут себя так, что в окрестности нулевой частоты происходит резкий подъем спектральной плотности. Понятно, что для изучения таких процессов приходится различать очень близкие частоты, например 0,01 Гц и 0,02 Гц. Ясно, что при этом время наблюдения должно оказаться очень большим. Для многих важных для радиотехники процессов шума («фликкер-шум») так толком и неизвестно, имеем ли мы дело со стационарным процессом (тогда f(K) может иметь в точке Х=0 лишь интегрируемую по А, особенность) или модель стационарного процесса должна быть вообще отвергнута; последнее означало бы, что со временем происходит некое изменение свойств элементов радиотехнических схем (т. е. сопротивлений, конденсаторов, транзисторов, электронных ламп и т. д.), которое нет возможности описывать стационарным случайным процессом.
ГЛАВА 6 МАРКОВСКИЕ ПРОЦЕССЫ
§ 1. Основные понятия
1.1. Статистический смысл цепей Маркова. В современной науке не так уж часто бывает, чтобы некоторое важное понятие или метод были, бесспорно, творением одного человека. Однако именно так обстоит дело с понятием марковской зависимости: автором этого понятия — единогласно во всем мире — считается А. А. Марков (старший). Посмотрим сначала, из каких соображений исходил А. А. Марков.
Проверка пригодности тех или иных вероятностных моделей для описания действительности облекается в форму статистической проверки гипотез и обставляется сложными на первый взгляд понятиями вроде критической области, уровня значимости н т. д. Может показаться, что и ответ, который при этом получается, бывает более или менее неопределенным: на одном уровне значимости гипотеза отклоняется, а на другом — нет. Но на самом деле так может случиться лишь при отдельно взятом акте проверки гипотезы; если гипотеза проверяется многократно и на большом статистическом материале, то ответ часто оказывается вполне определенным.
Рассмотрим, в частности, гипотезу независимости некоторых испытаний (пусть, для простоты, каждое испытание имеет два исхода, т. е. мы проверяем гипотезу испытаний Бернулли). Если в п испытаниях произошло т успехов, то мы берем за оценку неизвестной вероятности успеха в одном испытании р частоту р=т/п и никакой независимости проверить вообще не можем: всю информацию, данную нам в наблюдениях, мы израсходовали на определение единственного неизвестного параметра р.
(Если нам дано не только общее число успехов т, но и полный список исходов отдельных испытаний, то проверка независимости вполне возможна, но пока отвлечемся от этой ситуации.)
Но пусть серии из п испытаний Бернулли с (одной и той же для всех серий) вероятностью успеха р реализуем k раз: получаем цг успехов в i-й серии из я-испытаний. При этом
Мц,-=пр, D|u = npq, q=l—p,
причем за оценку р неизвестного параметра р возьмем, естественно,
р = (\ii + ... , |Х*) / nk.
Теперь мы можем посмотреть на согласие отдельных значений ц,- с их ожидаемыми значениями пр, в частности на сог-
14*
211
ласие ожидаемой дисперсии пр (1— р) с эмпирической дисперсией
i=l i=l
(поскольку ц= (Ц1 + ... +Ц*) / k=np).
Например, можно взять коэффициент дисперсии
s2/np (1—р)
и посмотреть, близок ли он к 1.
Статистики, изучавшие коэффициент дисперсии на разнообразном фактическом материале, убедились в том, что иногда он действительно близок к 1, но чаще бывает либо неоспоримо больше 1, либо неоспоримо меньше 1 (соответственно дисперсия s2 называется нормальной, сверхнормальной либо поднормальной). Например, А. А. Марков брал в качестве последовательности испытаний последовательность букв текста «Евгения Онегина»; успехом испытания считал гласность буквы (неудачей — согласность), а твердый и мягкий знаки и «и краткое» выбрасывал. Набрав п= 10000 испытаний, он разбил их на 100 серий по 100 последовательных букв в каждой и подсчитал коэффициент дисперсии. Он оказался примерно 0,2. Таким образом, число гласных среди 100 последовательных букв русского текста оказалось гораздо более стабильным, чем было бы в том случае, если бы А. С. Пушкин просто выбирал буквы путем независимых случайных испытаний, соблюдая вероятности их появления, характерные для русского текста.
Предыдущая << 1 .. 78 79 80 81 82 83 < 84 > 85 86 87 88 89 90 .. 161 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed