Научная литература
booksshare.net -> Добавить материал -> Биология -> Тутубалин В.Н. -> "Теория вероятностей и случайных процессов" -> 49

Теория вероятностей и случайных процессов - Тутубалин В.Н.

Тутубалин В.Н. Теория вероятностей и случайных процессов — М.: МГУ, 1992. — 400 c.
ISBN 5-211-02264-5
Скачать (прямая ссылка): teoriyaveroyatnosteyisluchaynihprocessov1992.djvu
Предыдущая << 1 .. 43 44 45 46 47 48 < 49 > 50 51 52 53 54 55 .. 161 >> Следующая

набор п таких одномерных случайных чисел, то | имеет равномерное распределение на n-мерном единичном кубе. Но тогда /=М/(|). Реализуя случайный вектор | N раз: ?(1), ..., |W и образуя выборку
*.=f(g<*>)......xN=mw),
для чего нужно лишь уметь вычислять значения функции f, получаем уже рассмотренную задачу оценки математического ожидания по выборке.
На самом деле, проблема датчика случайных чисел не решена. Со случайными числами происходило всякое. Например, долгое время во всем мире использовались такие «случайные» числа, что линейная комбинация любых последовательных трех из них с небольшими целочисленными коэффициентами равнялась нулю (и никто этого не замечал). Однако экспериментальная проверка действия статистической оценки точности счета, изложенной в предыдущем пункте (на интегралах с известным ответом), вроде бы приводит к выводу, что она, в общем, действует; автор книги имел случай убедиться в этом на собственном опыте (правда, на сравнительно очень простых интегралах).
3.2.3. Оценка вероятности по частоте. Рассмотрим вопрос о том, насколько может отклониться частота успеха в п испытаниях Бериулли от вероятности уопеха р. Для числа успехов дисперсия D\i=npq-, для частоты h—^jn тогда Dh=
118
—pq/n. Отклонение Л—/з_составит величину порядка Урд/п, причем отклонение на 2VDЛ маловероятно, а на 3VD/i почти невозможно.
Теперь рассмотрим численный пример. Известно, что знаменитый американский статистик начала XX в. К. Пирсон бросил монету л=24000 раз, причем герб вьгпал ц= 12012 раз. Отклонение \i-ti/2=12, среднеквадратическое отклонение > Dfi=77,5.
Если бы I |а—л/2! было существенно больше, чем 77,5, то это можно было бы объяснить несовершенством формы монеты, несовершенством метода ее бросания, на худой конец, ошибками в подсчете гербов (каждый, кто бросит монету хотя бы 20 раз, поймет, что подсчет результатов и есть единственная трудность этого опыта). Но отклонение, много меньшее, чем теоретически ожидаемое, автоматически наводит на мысль о подтасовке результатов опыта. Итак, в отношении опыта К. Пирсона возникает нехорошее подозрение. Для проверки этого подозрения вычислим
Р{^: |ц - п/2\ < 12} = Р jl^K ^ j =
= Ф(0,155) — Ф(—0,155)« 0,124 да 1 /8.
К- Пирсон реабилитирован: он не подделывал результаты. Могло же повезти великому человеку настолько, что произошло приятаое для него событие, вероятность которого 1/8. Тем более что на самом деле было так: сначала Пирсон бросил монету 6000 раз, но результат ему не понравился. Тогда он броснл ее еще 6000 раз и опять не понравилось. Пришлось бросить монету еще 12000 раз, и результат (всех бросаний) оказался замечательным.
3.2.4. Проверка гипотез о математическом ожидании. Центральная предельная теорема позволяет проверять гипотезы о математическом ожидании по выборке. Пусть, например, для измерения некоторой физической величины предложено два метода. Первым методом получены наблюдения Х\, х2, ..., хт, вторым методом — уи у2, .... уп• Мы не можем гарантировать чисто статистическими методами отсутствие систематической ошибки: возможно, что !Лх,'Фа и Му/^ю, где а — истинное значение измеряемой величины. Но мы можем проверить равенство Мх,=Му/, и если оно имеет место, то будем склонны считать, что оба метода не дают систематической ошибки (так как с чего бы двум разным методам давать одну и ту же систематическую ошибку?). Итак, пусть гипотеза Н состоит в том, что Мдс,-=Му/.
Естественно, что критическая область должна иметь вид {|х— >А), и для выбора А по заданному уровню
11Э
значимости а нужно уметь вычислять _вероятность попадания в критическую область. Но х имеет нормальное распределение с дисперсией в*//п, у— с дисперсией о*/п, где о* и о* —теоретические дисперсии двух выборок. Естественно предположить, что х, хт и yv . . . , уп независимы, тогда независимы и х н у. При верной гипотезе // имеем Мх=Му. Следовательно, разность х — у имеет нормальное распределение с нулевым средним н дисперсией а*/т+о2!п. В таком случае статистика (статистикой называется любая функция от выборочных значений)
(x—y){ollm + o)!n)~x/i
имеет распределение УУ(0, I), из_чего и вытекает способ вычисления вероятностей Р{|* — нужно одновре-
менно |х — у\ и А умножить на число (а2х!т + °у/п)-№ и воспользоваться стандартными таблицами нормального закона.
На практике (при числе наблюдений в каждой выборке порядка нескольких десятков или более) заменяют неизвестные а2 и а2 выборочными аналогами s2 и s*.
Нетрудно прикинуть, какой величины должно быть различие между средними M*j и Му/, чтобы его можно было обнаружить, — порядка двух-трех величин Va*/m-i-o*//i.
3.3. Метод наименьших квадратов. В данном пункте предположим, что распределение каждой измеряемой величины в точности нормальное. В этом предположении разберем так называемую общую линейную модель, охватывающую большое количество частных случаев.
3.3.1. Общая линейная модель. Обобщим модель выборки следующим образом. Пусть наблюдения i=l,...,n, имеют вид xi=cii+6i, где at — некоторые (неизвестные, подлежащие оценке) неслучайные величины — параметры модели;
Предыдущая << 1 .. 43 44 45 46 47 48 < 49 > 50 51 52 53 54 55 .. 161 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed