Научная литература
booksshare.net -> Добавить материал -> Биология -> Купер Дж. -> "Вероятностные методы анализа сигналов и систем" -> 85

Вероятностные методы анализа сигналов и систем - Купер Дж.

Купер Дж., Макгиллем К. Вероятностные методы анализа сигналов и систем — М.:Мир, 1989. — 376 c.
ISBN 5-03-000366-5
Скачать (прямая ссылка): veroyatnostniemetodi1989.djvu
Предыдущая << 1 .. 79 80 81 82 83 84 < 85 > 86 87 88 89 90 91 .. 158 >> Следующая

ческих сигналов из случайного шума. Пусть X (t) — случайный исследуемый сигнал (процесс), имеющий вид
X (t) = A cos (соt + 0), (6.34)
где 0 — случайный параметр. Выше показано, что автокорреляционная функция такого процесса равна
Rx (т) = (А212) cos Ы.
Рис. 6.6. Автокорреляционная функция аддитивной смеси гармонического
сигнала и шума.
Далее, пусть У (t) — случайный шум с нулевым математическим ожиданием, статистически независимый от сигнала. Пусть его автокорреляционная функция представлена в виде
Ry (х) = В2 ехр [— а | х |].
Наблюдаемый процесс Z (t), согласно (6.33), имеет автокорреляционную функцию
Rz (т) = Rx (х) + Ry (т) = (.d2/2)-cos ют + В2 ехр [— а | т |]. (6.35)
График этой функции для случая, когда средняя мощность шума В2 = RY (0) много больше средней мощности сигнала А212 = = Rx (0), приведен на рис. 6.6. Из этого графика ясно, что для больших т автокорреляционная функция зависит в основном от величины сигнала, поскольку автокорреляционная функция шума стремится к нулю при т, стремящемся к бесконечности. Таким образом, если использовать подходящий метод измерения автокорреляционной функции принимаемой смеси сигнала, отягощенного мощным шумом, возникает возможность выделять эти слабые синусоидальные сигналы.
Еще одним примером выделения слабого, но известного сигнала из его смеси с шумом, связанного с операцией формирования взаимных корреляционных функций, может служить радиолокационная система, передающая сигнал X (t). Принимаемый отраженный от цели сигнал представляет собой намного меньшую
по мощности копию сигнала X (t) с задержкой, равной времени его распространения к цели и обратно. Поскольку на входе радиолокационного приемника всегда присутствует шум, результирующее принимаемое сообщение Y (t) может быть представлено следующим образом:
Y (0 = aX(t — тд) + N (t), (6.36)
где а — постоянная, а<С1> — суммарная задержка распро-
странения сигнала в обе стороны, N (t) — шум приемника. Обычно средняя мощность отраженного сигнала X (t — тх) много меньше средней мощности шума N (t).
Взаимная корреляционная функция переданного сигнала и сигнала на входе приемника равна
Rxy (х) — Е [X (0 Г (* + *)] =
= Е [аХ (t)X(t + т - хг) + X(t)N (t + т)] =
-- aRx (х ^i) + Rxn{%)- (6.37)
Поскольку сигнал и шум статистически независимы и в данном случае имеют нулевые математические ожидания, взаимная корреляционная функция для X (t) и N (t) равна нулю при всех т. Следовательно, (6.37) преобразуется к виду
Rxy (*) = aRx (т — Xj). (6.38)
Если вспомнить, что максимум автокорреляционных функций приходится на начало отсчета времени, станет ясно, что при подстройке т таким образом, чтобы измеряемое значение RXY (т) стало максимальным, можно получить х = т,, и это значение определяет расстояние до цели.
В некоторых случаях, касающихся исследования двух случайных процессов, можно наблюдать либо их сумму, либо разность, но не каждый процесс в отдельности. При этом взаимная корреляционная функция для суммы и разности может представлять интерес как средство получения какой-либо информации об этих процессах. Предположим, например, что имеются два процесса, описываемые соотношениями
U(t) = X (t) + Y (t), (6.39)
V (f) = X (t) - Y (0, (6.40)
где случайные процессы X (t) и Y (t) не обязательно должны быть статистически независимы или иметь нулевые математические ожидания. Взаимная корреляционная функция для U (t) и V (t) имеет вид
Ruv (т) = Е [U (0 У (t + т)] = Е {[X (t) +
+ У (0 1 IX (t + т) - Г (t + х)]} = Е \Х (t) X (t + х) +
+ Y(t)X(t + x)-X(t)Y(t + x)-Y (t) Y (t + t)]. (6.41)
Каждое математическое ожидание в (6.41) может интерпретироваться как автокорреляционная или взаимная корреляционная функции. Следовательно,
Ruv (т) = Rx (х) ~Ь Ryx (т) — Rxy (х) ~~ Ry (х)- (6.42)
По аналогии читатель может легко убедиться, что вторая взаимная корреляционная функция есть
Rvu С1) = Rx (т) Ryx (f) + Rxy (т) — Ry (т)- (6.43)
Если X (t) и Y (t) — центрированные и статистически независимые процессы, то обе взаимные корреляционные функции совпадают:
Ruv (т) = Rvu (т) ~ Rx (х) — Ry (т)- (6.44)
На практике измерение взаимных корреляционных функций может проводиться по методике, во многом схожей с той, которая применялась при измерении автокорреляционных функций, и описанной в разд. 6.4. Однако количество выборок, необходимых для получения заданной дисперсии оценочного значения взаимной корреляционной функции, много больше числа выборок, требующегося для определения автокорреляционной функции.
Упражнение 6.8.1. Реализации случайного процесса X (t) описываются выражением х (/) = А, где А —случайная величина с математическим ожиданием, равным 10, и дисперсией, равной 25. Эти реализации могут наблюдаться только в присутствии не связанного с данным случайным процессом шума N (t), имеющего автокорреляционную функцию Rx (т) = 100 ехр (—10 |т|).
Предыдущая << 1 .. 79 80 81 82 83 84 < 85 > 86 87 88 89 90 91 .. 158 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed