Научная литература
booksshare.net -> Добавить материал -> Биология -> Купер Дж. -> "Вероятностные методы анализа сигналов и систем" -> 50

Вероятностные методы анализа сигналов и систем - Купер Дж.

Купер Дж., Макгиллем К. Вероятностные методы анализа сигналов и систем — М.:Мир, 1989. — 376 c.
ISBN 5-03-000366-5
Скачать (прямая ссылка): veroyatnostniemetodi1989.djvu
Предыдущая << 1 .. 44 45 46 47 48 49 < 50 > 51 52 53 54 55 56 .. 158 >> Следующая

может быть представлена в виде двух сомножителей, и мы получаем
f(x\y) = fx (х) fr (y)/fr (У) = fx (х), f(y\x) = f (x, y)lfx (x) = fx (x) fr (y)/fx (x) = fr (y).
Следует отметить, что случайные величины с совместной плотностью распределения вероятностей, приведенной в упр. 3.1.2, являются статистически независимыми, так как эту плотность вероятностей можно представить в виде произведения двух сомножителей, один из которых зависит только от х, а другой только от у. С другой стороны, случайные величины, приведенные в упр. 3.2.1, не являются статистически независимыми, поскольку их совместную плотность распределения вероятностей нельзя представить в виде такого произведения.
Упражнение 3.3.1. Совместная плотность распределения вероятностей случайных величин X и Y равна
( k(xy+2x + y + a), 0 1,
/ (х, у) = {
(О, *<0, *> 1, у < 0, у> 1.
Определите:
а) значения k и а, при которых случайные величины X и Y будут статистически независимы;
б) математическое ожидание случайной величины XY.
Ответы: 4/15, 8/27, 2.
Упражнение 3.3.2. Плотности распределения вероятностей случайных величин X и Y описываются нормальными законами с математическими ожиданиями 1 и 2 и дисперсиями 1 и 4 соответственно. Найдите вероятность того, что XY > 0.
Ответ: 0,7078.
3.4. Корреляция двух случайных величин
Как отмечалось выше, один из важнейших аспектов применения совместной плотности вероятностей связан с возможностью определения корреляции двух случайных величин, т.е. степени их статистической зависимости.
Корреляцией случайных величин X и Y, которые соответственно могут принимать значения х и у, называется математическое ожидание произведения этих случайных величин
оо оо
?[XF]= j j xyf(x, y)dxdy = XY.
—oo —oo
Если математические ожидания этих случайных величин отличны от нуля, то вычисления часто удобнее выполнять, предварительно перейдя к центрированным случайным величинам. Математиче-
ское ожидание двух центрированных случайных величин (X — X) и (У — Y) называется ковариацией и равно
Е [(X - X) (Y - F)] = (X - X) (Y - Y) =
00 00
= J } (х — Х)(у — Y)f(x, y)dxdy. (3.23)
—оо —оо
Ковариацию двух случайных величин можно считать аналогом дисперсии одной случайной величины.
Если нужно найти корреляцию двух случайных величин без учета их масштабов, то пользуются коэффициентом корреляции (иногда называемым нормированной ковариацией). Его обозначают через р и определяют как р = Е {[(X - Х)!ах] [(К - Y)!aY]\ =
00 оо
= I \ [(x-X)/ax][(y-Y)/aT\f(x, y)dxdy. (3.24)
—оо —оо
Обратите внимание на то, что в (3.24) разности случайных величин и их математических ожиданий делятся на соответствующие средние квадратические отклонения. Полученные в результате такого преобразования случайные величины имеют нулевые математические ожидания и единичные дисперсии и называются центрированными и нормированными.
Иногда для определения коэффициента корреляции удобно использовать еще одну формулу, получаемую из (3.24) при перемножении членов подынтегрального выражения. Итак,
оо оо
р = j } (ху — Ху — Yx + X?) / (х, у) dx dy/axaT.
—оо —оо
Выполнив интегрирование, получим
р = [Е (XY) - XY]/oxoy. (3.25)
Рассмотрим некоторые свойства коэффициента корреляции, для чего введем центрированные и нормированные случайные величины g и г), определив их следующим_ образом: | = (X —
- Х)/ох,1 = 0, 4 = 1, г] = (Y - Y)/oy, л = 0, о$ = 1. Тогда р= Е [gril. Теперь рассмотрим выражение
Е [(| ± rtf*] = ?[Н2 ± 25л + Л2] = 1 ± 2Р + 1 = 2 (1 ± р).
Поскольку случайная величина (? ± л)2 не может быть отрицательной, ее математическое ожидание тоже не может быть меньше нуля, так что 2 (1 ± р) >- 0. Следовательно, коэффициент корреляции по абсолютной величине не превышает единицы, т. е.
— 1< р < 1.
Если случайные величины X и Y статистически независимы,
то
р = Е [?г| 1 = 1л = О,
поскольку математические ожидания ? и г) равны нулю. Таким образом, коэффициент корреляции статистически независимых случайных величин всегда равен 0. Однако обратное утверждение справедливо не всегда. Равный нулю коэффициент корреляции двух случайных величин не обязательно свидетельствует о статистической независимости этих случайных величин; как мы увидим ниже, нулевой коэффициент корреляции эквивалентен статистической независимости лишь для гауссовских случайных величин.
Чтобы проиллюстрировать свойства коэффициента корреляции, рассмотрим двумерную плотность распределения вероятностей
( х-\-у, 0<*<1, 0<г/<1,
= | 0, *<0, *>1, г/<0, у> 1.
Воспользовавшись четвертым свойством двумерной плотности распределения вероятностей, сразу получим одномерные плотности распределения вероятностей 1
Предыдущая << 1 .. 44 45 46 47 48 49 < 50 > 51 52 53 54 55 56 .. 158 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed