Научная литература
booksshare.net -> Добавить материал -> Биология -> Купер Дж. -> "Вероятностные методы анализа сигналов и систем" -> 49

Вероятностные методы анализа сигналов и систем - Купер Дж.

Купер Дж., Макгиллем К. Вероятностные методы анализа сигналов и систем — М.:Мир, 1989. — 376 c.
ISBN 5-03-000366-5
Скачать (прямая ссылка): veroyatnostniemetodi1989.djvu
Предыдущая << 1 .. 43 44 45 46 47 48 < 49 > 50 51 52 53 54 55 .. 158 >> Следующая

Это выражение можно преобразовать к виду [b/(2n)U2aNpY (у)] ехр {— (V2ff^) X
/(*!*) =
х[*2 —2 (у-Ьа%)х-\-у2]}, х>0, (3.19)
О, х<0.
Графики f(x\y) для двух значений у показаны на рис. 3.3.
Функция ошибок erf (г) связана с нормальным распределением и равна
*
erf (г) = (2/я1/2) j* е~и‘ du = 2Ф {1Х12г) — 1.
Выше отмечалось, что правдоподобной оценкой значения, принимаемого случайной величиной X при наблюдающемся значении случайной величины У, является значение х, при котором f (х\ у) максимальна. Поскольку максимум f (х\у) по х соответствует минимуму ее экспоненциального члена, ясно, что найти положение этого максимума можно, приравняв нулю производную экспоненциального члена по х. Таким образом, 2х — 2 (у — Ьа&) = О, или
х = у — Ьа%. (3.20)
Итак, соотношение (3.20) является условием, позволяющим определить положение максимума f (х\у) при у — Ьа% > 0. Если же у — Ьа% 0, то на графике функции f (х\ у) отсутствуют точки, где ее производная df(x\y)/dx равна нулю, и своего максимума она достигает при х = 0. Пусть, например, У = уг. Тогда если Ьа%, то X = у\ — Ьа% будет являться правдоподобной оценкой случайной величины X. Однако если у± < Ьа%, то такой оценкой будет X — 0. Обратите внимание, что при
уменьшении мощности шума (а% ->¦ 0) X приближается к наблю-
даемому значению уг.
Упражнение 3.2.1. Совместная плотность распределения вероятностей случайных величин X и V имеет вид
(k(x + y), 0s^*s^l, 0<у<1,
*’ У I 0, х < 0, *>1, у< 0, у> 1.
Определите:
а) значение k, для которого это выражение действительно можно считать двумерной плотностью распределения вероятностей,
б) условную вероятность того, что X > 1/2, если Y = 1/2,
в) условную вероятность того, что V ^ 1/2, если X = 1/2.
Ответы: 3/8; 5/8; 1.
Упражнение 3.2.2. Случайный сигнал X (t) распределен равномерно в интервале от 6 до 10 В. Его измеряют в присутствии гауссовского шума N (t) с нулевым математическим ожиданием и средним квадратическим отклонением, равным 2 В.
Найдите наиболее правдоподобную оценку X истинного значения сигнала, если результат измерения составил:
а) 4 В, б) 8 В, в) 12 В.
Ответы: 6 В, 8 В, 10 В.
3.3. Статистическая независимость случайных величин
Понятие статистической независимости было введено выше в связи с дискретными случайными величинами, но для непрерывных случайных величин оно имеет не менее важное значение. Случайные величины, связанные с различными физическими источниками, как правило, статистически не связаны между
собой. Например, случайные тепловые падения напряжения на резисторах какой-либо электронной схемы не связаны друг с другом. Статистическая независимость может также иметь место, если случайные величины обязаны своим происхождением одному и тому же источнику, но сильно разделены во времени. К примеру, тепловое напряжение резистора практически не связано с падением напряжения на следующий день. Если две случайные величины статистически независимы, то, зная параметры одной из них, нельзя судить о поведении другой.
Двумерная плотность распределения вероятностей двух статистически независимых случайных величин всегда может быть представлена в виде произведения двух одномерных плотностей распределения вероятностей. Таким образом, выражение
f (х, У) = fx (х) /у (у) (3.21)
может использоваться для определения статистической независимости двух случайных величин X, Y, поскольку можно показать, что такое условие разложения f(x, у) на два сомножителя fx (х) и fY (у) является необходимым и достаточным условием статистической независимости X и Y. В частности, оно удовлетворяется для двумерной плотности распределения вероятностей вида (3.3), Следовательно, описываемые (3.3) две случайные величины статистически не зависят друг от друга.
Одно из следствий статистической независимости связано с корреляцией, определяемой выражением (3.5). Представив двумерную плотность распределения вероятностей в виде произведения двух сомножителей, перепишем (3.5) в виде
оо оо
Е [XY] = J xfx (х) dx j yfr (у) dy = E [X] E [Y] = XY. (3.22)
— OO —00
Из (3.22) следует, что математическое ожидание произведения двух статистически независимых случайных величин равно произведению их математических ожиданий. Если математическое ожидание хотя бы одной из этих величин равно нулю, то и математическое ожидание их произведения равно нулю.
Другое следствие статистической независимости случайных величин заключается в том, что их условные плотности распределения вероятностей превращаются в соответствующие безусловные. Например, из (3.12) следует, что
f(x\y) = f(x, У)/ft (У),
но если X и Y — статистически независимые случайные величины, то их совместная плотность распределения вероятностей
Предыдущая << 1 .. 43 44 45 46 47 48 < 49 > 50 51 52 53 54 55 .. 158 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed