Курс теории вероятностей - Гнеденко Б.В.
Скачать (прямая ссылка):
Доказательство. Если величины ? и т? дискретны; а1? а2, . . , . . . , ак, ... — возможные значения ? и р1г р2, ¦ . . , рк,... — вероятности этих значений; Ьх, Ь2, . . . , Ьп, . . . — возможные значения 7? и ,ql, q2, . . . . . . , qn, . . . — вероятности этих значений, то вероятность того, что ? примет значение ак, а г? — значение Ьп, равнаpkqn - По определению математического ожидания
М?т? = 2 akbnpkqn = 2 2 akbnpkqn =
к ,п /с = L п~ \
= ( 2 акрк ) ( 2 Ь„^„) = М?Мт?.
fc = l п = 1
Лишь немногим сложнее доказательство для случая непрерывных величин, провести его мы предоставляем читателю.
Следствие 1. Постоянный множитель можно выносить за знак математического ожидания
МС? = СМ?.
Это утверждение очевидно, так как, каково бы ни было ?, постоянное С и величину ? можно рассматривать как независимые величины.
§ 25. Теоремы об ожидании и дисперсии 173
Теорема 4. Дисперсия постоянного равна нулю. Доказательство. Согласно теореме 1,
DC = М(С - МС)2 = М(С - С)2 = МО = 0.
Теорема 5. Если с - постоянное, то
Dc? = c2D?.
Доказательство. В силу следствия из теоремы 3 Dс% = М[с? - Мс?]2 = МН - сЩ}2 =
= Мс2[?-М?]2 = с2М[? -М?]2 = с2D?.
Теорема 6. Дисперсия суммы независимых случайных величин % и т] равна сумме их дисперсий
D(?+tj) = D? + Dtj.
Доказательство. Действительно,
D(t + г?) = М[| + т? - М(| + V)]2 = М[(? - М|) + (т? - Mr?)]2 =
= D? + Dtj + 2M(? - MS) (v - Mr?).
Величины % и г) независимы, поэтому независимы также величины % — М? иг? — Mr?; отсюда
M(S - М?)(т? - Мт?) = М(? - MS) -М(т? -М17) = 0.
Следствие 1, Если Si, » • ¦ • . S„ ~ случайные величины, каждая
из которых независима от суммы предыдущих, то
D(b +Ь + ... + !„) = DS, +Db + ... + DS„.
Следствие 2. Дисперсия суммы конечного числа попарно независимых случайных величин S i, ?2 . • • - Лп равна сумме их дисперсий. Доказательство. Действительно
d(S1+S2+... + S„) = m( 2 (Sk-M|k))2 =
fc = l
= М 2 2 (Sk - MSk) (S- - MS.) =2 2 M(|k - Щк) (I, - MS.) =
/ =1 * = 1 ' k = l /=1
= 2 DSk+ 2 M(Sk -MS.HSj.-MS,). к - 1 fc =? /
Из независимости любой пары величин и (fc #/) вытекает, что при кФ]
M(|Jk-M|ft)(S/-MS/) = o.
Этим, очевидно, доказательство завершено.
174 Гл. 5. Числовые характеристики
Пример 1. Нормированным уклонением случайной величины ? ?-М?
называется отношение ------------
Vds / Z - м? \ ,
Доказать, что DI ---------- )- 1.
V Vd? /
Действительно, % и М?, рассматриваемые—как случайные величины, независимы, поэтому в силу теорем 5 и 6
( \ = р^ + р(~м^) = = !
\ у/т Г " D* “ '
Пример 2. Если ? и г? — независимые случайные величины, то D(? - г?) = D? + Dr?.
Действительно, в силу теорем 5 и 7 D(-r?) = (~l)2 Dr? = Dr?
и
D(S - 17) = D? + Dr?.
Пример 3. Теоремы 2 и 6 позволяют весьма просто вычислять математическое ожидание и дисперсию числа р. наступлений события А при п независимых испытаниях.
Пусть рк есть вероятность появления события А при к-м испытании. Обозначим через у.к число появлений события А при к-м испытании. Очевидно, что цк есть случайная величина, принимающая значения 0 и 1 с вероятностями qk = 1 — рк ирк соответственно.
Величина ц, таким образом, может быть представлена в виде суммы
М = Ml +М2 + ...+Ц„.
Так как
Шк = 0 -qk + 1 -рк =рк
и
= Мц2к - (М^)2 =0 -qk + 1 pk-pl=pk( 1 ~Pk)^Pkqk, то доказанные теоремы позволяют заключить, что М/u = pi +р2 + . ..+рп
И
f>V=Pi<?i + • --+Pn<ln-
§ 26. Моменты 175
Для случая схемы Бернулли рк=р и, следовательно,
М/и = пр и Du = npq.
Заметим, что отсюда
рч
М — = р; D — = ------- •
п п п
§ 26. Моменты
Моментом к-го порядка случайной величины ? называется математическое ожидание величины (? -а)к:
рк(а) = Щ%- а)к. (1)
Если а = 0, то момент называется начальным. Легко видеть, что начальный момент первого порядка есть математическое ожидание величины ?.
Если а = М?, то момент называется центральным. Легко видеть, что центральный момент первого порядка равен нулю, а центральный момент второго порядка есть не что иное, как дисперсия.
Начальные моменты мы станем обозначать буквой ик, а центральные — буквой Цк> указывая в обоих случаях нижним индексом порядок момента.
Между центральными и начальными моментами существует простая связь. Действительно,
цп = М(ё - М?)” = 2 Ск(-Щ)п~кЩк = Б Ск{-Щ)п~кик. (2)
____ к =0 к = 0