Научная литература
booksshare.net -> Добавить материал -> Биология -> Тутубалин В.Н. -> "Теория вероятностей и случайных процессов" -> 15

Теория вероятностей и случайных процессов - Тутубалин В.Н.

Тутубалин В.Н. Теория вероятностей и случайных процессов — М.: МГУ, 1992. — 400 c.
ISBN 5-211-02264-5
Скачать (прямая ссылка): teoriyaveroyatnosteyisluchaynihprocessov1992.djvu
Предыдущая << 1 .. 9 10 11 12 13 14 < 15 > 16 17 18 19 20 21 .. 161 >> Следующая

Я,=410410-в=0,04, что не так уже мало.
Наконец, рассмотрим ту же задачу с точки зрения большого аэропорта, в котором имеется 1000 экипажей. За год пуассоновский параметр числа аварий будет
Я.=2000 1000 10-в=2,
т. е. в среднем две аварии в год, и лишь с вероятностью e~*— =е-2«1/7 год проходит без аварий. Так как в пределах од-
3* 35
ного аэропорта работники немедленно узнают об авариях (а то и принимают участие в ликвидации последствий), то две аварии в год создают чрезвычайно напряженную обстановку. Малая вероятность аварии какого-то технического средства (10-®) при его массовом применении оказывается слишком большой: ее необходимо снижать. За счет каких-то технических и организационных усилий общество может ее снизить — допустим, вдвое или в несколько раз. Но довести до нуля — вряд ли.
Остановимся еще на часто встречающемся заблуждении. Если к=2, то фактическое число аварий за год может принимать любые значения 0, 1, 2......Обычно если в одном году
была одна авария, а в следующем происходит, скажем, 4, то считают, что аварийность возросла, и начинают искать виноватых. На самом деле это может быть и чисто случайним колебанием: при К=2 Р{К1}=0,41, Р{|>4}=0,14 и в ряду лет то и другое событие могут встретиться совершенно случайно.
§ 6. Системы случайных величин
6.1. Введение. Система случайных величин, т . е. вектор l=(Ii> 1г. —.In), компоненты которого являются случайными величинами, в сущности, не требует нового определения, так как введенные в § 5 случайные величины могут принимать и векторные значения. Значением векторной случайной величины % является, естественно, вектор а=(а\, а2,...,ап), т. е. событие {1==а} можно записать в следующем виде:
»
{S=e} ={П в л<}= {5i== 1л=ая)-
Для вероятности получаем
P{l = o} = P{ll=«b S2 = 02....ln = On}.
Набор вероятностей Р{|=а}, отвечающий всем возможным различным значениям вектора а (их не более чем счетное число, поскольку Q, на котором определено |=|(а) не более чем счетно), называется распределением вектора | либо совместным распределением его компонент ?i, |2, ..., |п. Из совместного распределения нетрудно получить распределения отдельных компонент (так называемые маргинальные распределения):
P{5i ™ о-i)в 2 в
а...в.
/I
В двумерном случае (л=2) вероятности
Pu=P{Ii=o<-. I2=а;}
Зв
записывают в таблицу наподобие матрицы (но матричные операции не используются). В многомерном случае непонятно, какой способ записи многомерного массива Р{?=а} может быть лучше.
Уже поэтому ясно, что с многомерными распределениями произвольного вида трудно что-либо сделать. Упрощения идут по двум линиям: 1) на первый план выдвигаются те или иные параметры распределения (в частности, так называемые ковариации и корреляции случайных величии, что приводит к корреляционному анализу); 2) рассматриваются частные виды распределений (в частности, независимые случайные величины). Комбинация этих видов упрощения ведет к установлению простой (по нынешним временам), но важной теоремы, называемой законом больших чисел, которой мы и завершим данный параграф.
6.2. Корреляционный анализ. Основным понятием корреляционного анализа является ковариация.
Определение. Ковариацией двух одномерных случайных величин | и т) называется следующее выражение:
cov(l, Л)=М(1—М1)(Л-МЛ) (1)
(в формуле (1) сначала делается умножение (|—М|)Х Х(т]—Мт|), а математическое ожидание берется от произведения). Коэффициентом корреляции величин | и т) называется следующее выражение:
_ cov||j2 (2)
Коэффициент корреляции есть величина безразмерная (т. е. не меняющаяся при линейной замене |—> а|+&, т)—*-arj-hb). Из неравенства Коши — Буияковского следует, что
причем в случае rST,=±l величины | и т) линейно зависимы: r\=c%+d, cad — числа.
Можно считать, что D|=cov(|, |). Важнейшее значение имеет следующая
Лемма 1. Для суммы li+l2+-+In случайных величин
1., |г> In справедливы формулы
D& + ь+ . . . + и =/21covfo, Ц =
= 2 Vli + 2 cov(?lt У - 2 Dg, + 2 2 Covft, li). (3) i—t itl i=l i<f
Доказательство. В силу определения дисперсии имеем
37
D& + 8.+ . . .+U = M[(|1+5,+. . .+U-—м(Е|+6,+ . . . +и]*=м[||(6,-м^)]'-
=m[iSi (I, - м?,)& - Mg,)] -1S t Mi - Nil,) x
X(I/-M6,)-JSJ COV(g„ 5;).
Позже (после изучения общей аксиоматики) мы разовьем корреляционный анализ несколько дальше. Сейчас же переходим к понятию независимости.
6.3. Независимые случайные величины. Случайные величины |2> —> In называются независимыми в совокупности, если для любых числовых множеств Ai, А2, ..., Ап события
{ti^4i}» {^еЛг}, ..., {|пеЛп} (4)
независимы в совокупности.
Из независимости в совокупности вытекает, что совместное распределение случайных величин |ь |2, ..., |п является прямым произведением одномерных распределений величин Si. Ь. •••* In. Это означает, что
Предыдущая << 1 .. 9 10 11 12 13 14 < 15 > 16 17 18 19 20 21 .. 161 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed