Научная литература
booksshare.net -> Добавить материал -> Физика -> Гнеденко Б.В. -> "Курс теории вероятностей " -> 64

Курс теории вероятностей - Гнеденко Б.В.

Гнеденко Б.В. Курс теории вероятностей — М.: Наука, 1988. — 445 c.
Скачать (прямая ссылка): kursteoriiveroyatnostey1988.pdf
Предыдущая << 1 .. 58 59 60 61 62 63 < 64 > 65 66 67 68 69 70 .. 176 >> Следующая


Доказательство. Если величины ? и т? дискретны; а1? а2, . . , . . . , ак, ... — возможные значения ? и р1г р2, ¦ . . , рк,... — вероятности этих значений; Ьх, Ь2, . . . , Ьп, . . . — возможные значения 7? и ,ql, q2, . . . . . . , qn, . . . — вероятности этих значений, то вероятность того, что ? примет значение ак, а г? — значение Ьп, равнаpkqn - По определению математического ожидания

М?т? = 2 akbnpkqn = 2 2 akbnpkqn =

к ,п /с = L п~ \

= ( 2 акрк ) ( 2 Ь„^„) = М?Мт?.

fc = l п = 1

Лишь немногим сложнее доказательство для случая непрерывных величин, провести его мы предоставляем читателю.

Следствие 1. Постоянный множитель можно выносить за знак математического ожидания

МС? = СМ?.

Это утверждение очевидно, так как, каково бы ни было ?, постоянное С и величину ? можно рассматривать как независимые величины.
§ 25. Теоремы об ожидании и дисперсии 173

Теорема 4. Дисперсия постоянного равна нулю. Доказательство. Согласно теореме 1,

DC = М(С - МС)2 = М(С - С)2 = МО = 0.

Теорема 5. Если с - постоянное, то

Dc? = c2D?.

Доказательство. В силу следствия из теоремы 3 Dс% = М[с? - Мс?]2 = МН - сЩ}2 =

= Мс2[?-М?]2 = с2М[? -М?]2 = с2D?.

Теорема 6. Дисперсия суммы независимых случайных величин % и т] равна сумме их дисперсий

D(?+tj) = D? + Dtj.

Доказательство. Действительно,

D(t + г?) = М[| + т? - М(| + V)]2 = М[(? - М|) + (т? - Mr?)]2 =

= D? + Dtj + 2M(? - MS) (v - Mr?).

Величины % и г) независимы, поэтому независимы также величины % — М? иг? — Mr?; отсюда

M(S - М?)(т? - Мт?) = М(? - MS) -М(т? -М17) = 0.

Следствие 1, Если Si, » • ¦ • . S„ ~ случайные величины, каждая

из которых независима от суммы предыдущих, то

D(b +Ь + ... + !„) = DS, +Db + ... + DS„.

Следствие 2. Дисперсия суммы конечного числа попарно независимых случайных величин S i, ?2 . • • - Лп равна сумме их дисперсий. Доказательство. Действительно

d(S1+S2+... + S„) = m( 2 (Sk-M|k))2 =

fc = l

= М 2 2 (Sk - MSk) (S- - MS.) =2 2 M(|k - Щк) (I, - MS.) =

/ =1 * = 1 ' k = l /=1

= 2 DSk+ 2 M(Sk -MS.HSj.-MS,). к - 1 fc =? /

Из независимости любой пары величин и (fc #/) вытекает, что при кФ]

M(|Jk-M|ft)(S/-MS/) = o.

Этим, очевидно, доказательство завершено.
174 Гл. 5. Числовые характеристики

Пример 1. Нормированным уклонением случайной величины ? ?-М?

называется отношение ------------

Vds / Z - м? \ ,

Доказать, что DI ---------- )- 1.

V Vd? /

Действительно, % и М?, рассматриваемые—как случайные величины, независимы, поэтому в силу теорем 5 и 6

( \ = р^ + р(~м^) = = !

\ у/т Г " D* “ '

Пример 2. Если ? и г? — независимые случайные величины, то D(? - г?) = D? + Dr?.

Действительно, в силу теорем 5 и 7 D(-r?) = (~l)2 Dr? = Dr?

и

D(S - 17) = D? + Dr?.

Пример 3. Теоремы 2 и 6 позволяют весьма просто вычислять математическое ожидание и дисперсию числа р. наступлений события А при п независимых испытаниях.

Пусть рк есть вероятность появления события А при к-м испытании. Обозначим через у.к число появлений события А при к-м испытании. Очевидно, что цк есть случайная величина, принимающая значения 0 и 1 с вероятностями qk = 1 — рк ирк соответственно.

Величина ц, таким образом, может быть представлена в виде суммы

М = Ml +М2 + ...+Ц„.

Так как

Шк = 0 -qk + 1 -рк =рк

и

= Мц2к - (М^)2 =0 -qk + 1 pk-pl=pk( 1 ~Pk)^Pkqk, то доказанные теоремы позволяют заключить, что М/u = pi +р2 + . ..+рп

И

f>V=Pi<?i + • --+Pn<ln-
§ 26. Моменты 175

Для случая схемы Бернулли рк=р и, следовательно,

М/и = пр и Du = npq.

Заметим, что отсюда

рч

М — = р; D — = ------- •

п п п

§ 26. Моменты

Моментом к-го порядка случайной величины ? называется математическое ожидание величины (? -а)к:

рк(а) = Щ%- а)к. (1)

Если а = 0, то момент называется начальным. Легко видеть, что начальный момент первого порядка есть математическое ожидание величины ?.

Если а = М?, то момент называется центральным. Легко видеть, что центральный момент первого порядка равен нулю, а центральный момент второго порядка есть не что иное, как дисперсия.

Начальные моменты мы станем обозначать буквой ик, а центральные — буквой Цк> указывая в обоих случаях нижним индексом порядок момента.

Между центральными и начальными моментами существует простая связь. Действительно,

цп = М(ё - М?)” = 2 Ск(-Щ)п~кЩк = Б Ск{-Щ)п~кик. (2)

____ к =0 к = 0
Предыдущая << 1 .. 58 59 60 61 62 63 < 64 > 65 66 67 68 69 70 .. 176 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed