Научная литература
booksshare.net -> Добавить материал -> Математика -> Баврин И.И. -> "Теория вероятностей и математическая статистика" -> 14

Теория вероятностей и математическая статистика - Баврин И.И.

Баврин И.И. Теория вероятностей и математическая статистика — М.: Высшыя школа, 2005. — 160 c.
ISBN 5-06-005322-9
Скачать (прямая ссылка): teoriyaveroyatnostiimatstatistika2005.djvu
Предыдущая << 1 .. 8 9 10 11 12 13 < 14 > 15 16 17 18 19 20 .. 51 >> Следующая


или

Ш| Nl2 tnk

*ср - + + хк —.

Так как коэффициент т,/п является относительной частотой события «величина X приняла значение х,» (/=1, 2, ..., к), то

*ср = X1P*+ х2р* + ... + xkpf.

3*

35 Из статистического определения вероятности следует, что при достаточно большом числе испытаний р* ~ р; (/= 1, 2, ..., к). Поэтому

Xcp = х,р, + х2рг + ... + хкрк,

или

Xcp = M(X).

Таким образом, математическое ожидание случайной величины можно приближенно считать ее средним значением, что и делают на практике.

Обратимся теперь к механической интерпретации математического ожидания дискретной случайной величины X. Пусть на оси абсцисс расположены точки с абсциссами хь х2, ..., х„, в которых сосредоточены соответственно массы ри рг, ..., р„, причем + /? + ... +р„ = 1. Тогда математическое ожидание M(X), определяемое формулой (2.1), есть не что иное, как абсцисса центра масс данной системы материальных точек.

2. Свойства математического ожидания дискретной случайной величины.

1. Математическое ожидание* постоянной величины С равно этой величине.

Постоянную С можно рассматривать как дискретную случайную величину, принимающую лишь одно значение С с вероятностью /7-1. Поэтому M(C) = С- 1 = С.

2. Постоянный множитель можно выносить за знак математического ожидания, т.е. M(CX) = CM(X).

Используя соотношение (2.1), имеем:

M(CX) = Cx і /?, + Сх2р2 + ... + Схпрп = = С (X1 р\ + Xip2 + ... + хП рп) = CM(X).

3. Математическое ожидание суммы двух случайных величин X и Y равно сумме их математических ожиданий:

M(X+Y) = M(X) + M(Y).

Доказательство. Пусть X и Y имеют законы распределения:

X X, X2 Y у, у, ]

(2.2)

P Pi Pi P <7i Qi \

Для упрощения доказательства мы ограничиваемся лишь двумя возможными значениями каждой из случайных величин (в общем случае доказательство аналогично).

* В дальнейшем часто ради краткости вместо слов «математическое ожидание» будем писать МО

36 Составим все возможные значения величины X+ Y, для чего к каждому возможному значению X прибавим каждое возможное значение У; получим jc, +у,, jc, Jc2+ и Jc2+ у2 (их вероятности обозначим соответственно через ри, Р\2, Pu и р22).

Докажем, что рц+рп=р\• Событие, состоящее в том, что X примет значение jc, (его вероятность равна рх), влечет за собой событие, состоящее в том, что X+ Y примет значение JCi+y, или Xi + Уг (вероятность этого события по теореме сложения вероятностей несовместимых событий (см. § 1.3, п. 1) равна рц+рп)- Поэтому Pn+ Pn= Pi- Аналогично доказываются равенства Pu+Pu = qu рг\ + Ргг = Ръ Pn+ Pu- Qi-

Наконец, согласно формуле (2.1), имеем

M СX+ У) = (х,+у,)рп + (х, + у2)р,2 + (х2 +Уі)рг і + (х2 + y2)pi2 = = Xi (ри + Pn) +X2(J)2x+P22)+уі(рц +Ргд+Уг(Рп+Ргг) = = Xi Pi + X2P2 + ;Мі + УіОг = M(X) + М( Y).

Определение. Случайные величины X и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое возможное значение приняла другая величина.

Примером двух независимых случайных величин могут служить суммы выигрышей по каждому из двух лотерейных билетов по двум различным денежно-вещевым лотереям. Здесь ставший известным размер выигрыша по билету одной лотереи не влияет на ожидаемый размер выигрыша и соответствующую ему вероятность по билету другой лотереи.

Несколько случайных величин называются независимыми, если закон распределения любой из них не зависит от того, какие возможные значения приняли остальные случайные величины.

4. Математическое ожидание произведения двух независимых случайных величин XuY равно произведению их математических ожиданий:

M(XY) = M(X)M(Y).

Пусть независимые случайные величины X и Y заданы законами распределения (2.2). Для упрощения выкладок мы ограничиваемся лишь двумя возможными значениями каждой из случайных величин (в общем случае доказательство аналогично).

Составим все возможные значения величины AT: JCiyb X1J2l Х2У1, Х2у2 (их вероятности обозначим соответственно через Pu, Рп, Рг I, Ргг).

По теореме умножения вероятностей независимых событий (см. § 1.3, п. 2) вероятность того, что AT примет значение Jci равна произведению вероятностей таких событий: X принимает значение JCi, а У—значение уь т.е. pu=piqi. Аналогично Pn=Ptqi, Pu =Pi^u Pn = Pifh-

37 Согласно формуле (2.1), получим:

M(XY) =XiyxPiql + xty2p,q2+x2yxp2qx + x2y2p2q2 = = Xx px(yxqx + y2qi) + xip2(y[q[+yiq2)=(xlpl+xipi)(yxqx +y2q2) = = M(X)M(Y).

Следствием свойств 2 и 3 является свойство 5.

5. Математическое ожидание разности двух случайных величин X и Y равно разности их математических ожиданий:

M(X-Y) = M(X)-M(Y).

Примечание 1. Свойства 3 и 4 имеют место для любого конечного числа случайных величин.

Примечание 2. Если множество возможных значений дискретной случайной величины X бесконечно, то математическое ожидание M(X) определяется суммой числового ряда

M(X)=^xkPk і

при условии, что этот ряд абсолютно сходится. Перечисленные свойства математического ожидания остаются в силе (см. [2]) и для таких случайных величин.
Предыдущая << 1 .. 8 9 10 11 12 13 < 14 > 15 16 17 18 19 20 .. 51 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed