Научная литература
booksshare.net -> Добавить материал -> Биология -> Купер Дж. -> "Вероятностные методы анализа сигналов и систем" -> 84

Вероятностные методы анализа сигналов и систем - Купер Дж.

Купер Дж., Макгиллем К. Вероятностные методы анализа сигналов и систем — М.:Мир, 1989. — 376 c.
ISBN 5-03-000366-5
Скачать (прямая ссылка): veroyatnostniemetodi1989.djvu
Предыдущая << 1 .. 78 79 80 81 82 83 < 84 > 85 86 87 88 89 90 .. 158 >> Следующая

Найдите временную взаимную корреляционную функцию для х (/) и у (/). Ответ'. 50 sin Ют.
6.7. Свойства взаимных корреляционных функций
Основные свойства всех взаимных корреляционных функций весьма существенно отличаются от свойств автокорреляционных функций. Их можно обобщить следующим образом.
1. Значения Rxr (0) и RYX (0) не имеют никакого реального физического смысла и не соответствуют средним квадратам случайных величин X = X (t) и Y = Y (t). Тем не менее равенство Rxy (0) = RYx (0) справедливо.
| 2. В общем случае взаимные корреляционные функции не являются четными относительно т. Тем не менее существует вид симметрии, описываемый соотношением
Яг*(т) = Яху(-т)- (6.28)
Этот результат следует из того факта, что сдвиг Y (t) во времени в определенном направлении эквивалентен сдвигу X (t) в противоположном направлении.
3. Взаимная корреляционная функция необязательно должна иметь максимум при т = 0. Тем не менее можно показать, что
|Я*гМ!<1*х(0)яу(0))1/2,
(6.29)
причем аналогичное соотношение справедливо и для RYX (т)-Максимум взаимной корреляционной функции может оказаться при каком угодно т, но не может превысить значения (6.29). Более того, он может не достигаться ни при каких т.
4. Если два случайных процесса статистически независимы, то
RXT (т) = Е [XtY2] = Е 1Хх] Е [Г2] = XY = Ryx (т). (6.30)
Если математическое ожидание либо одного, либо обоих процессов равно нулю, взаимная корреляционная функция равна нулю при любых т. Обратное утверждение необязательно должно быть справедливым. Из того факта, что взаимная корреляционная функция равна нулю и математическое ожидание одного из процессов равно нулю, статистической независимости процессов не следует. Исключением являются совместные гауссовские случайные процессы.
5. Если X (t) — стационарный случайный процесс и X (t) — его производная по времени, их взаимная корреляционная функция имеет вид
Xxi(v) = dRx(i)/dx, (6.31)
где в правой части стоит производная автокорреляционной функции по т. Это легко показать, используя основное определение производной
X (t) = Urn IX (t + Дт) - X (t)]/Дт.
Лг-vO
Отсюда
Rxi (x) = E[X(t)X(t + x)\ =
= Е jHin [X (t)X(t + т + Дт) - X (/)X (t -f *)]/At} =
= lim [Я* (t -j- At) — Rx (т)]/Дт = dRx (x)/dx. д-c-vo
Взаимная замена предельного и вероятностного переходов правомерна во всей области существования X (t). Если вышеприведенные операции повторить, то можно показать, что автокорреляционная функция от X (t) есть
Rx (т) = ЯX X (т) = — (х)/*а. (6-32)
где правая часть есть вторая производная по т основной автокорреляционной функции.
Стоит отметить, что требования к существованию взаимной корреляционной функции менее строги, чем к существованию автокорреляционных функций. Обычно взаимные корреляционные функции — это нечетные функции от т, их фурье-преобразования
не обязательно должны быть положительными для всех со, и даже не обязательно, чтобы фурье-преобразования были вещественными. Два этих свойства обсуждаются более подробно в следующей главе.
Упражнение 6.7.1. Докажите неравенство (6.29). Наиболее просто это осуществить, вычисляя математическое ожидание случайной величины
)±y2/r{/2 (О)]2.
Упражнение 6.7.2. Два случайных процесса имеют вид
X (t) = A cos (a)0t +0), Y (t) = В sin (a>0t + 0),
где 0 — случайная величина, равномерно распределенная между 0 и 2я, а А и В — постоянные.
а) Определите взаимные корреляционные функции Rxy (т) и Ryx (т).
б) Каковы значения этих взаимных корреляционных функций при т = 0?
Ответ'. (1/2) sin со0т.
6.8. Примеры и приложения взаимных корреляционных
функций
Выше отмечалось, что одно из приложений взаимных корреляционных функций связано с системами, на входы которых подаются два или более случайных процесса. Для более подробного рассмотрения этой ситуации предположим, что случайный процесс Z (t) представляет собой аддитивную смесь Z (t) = X (t) ± ± Y (0, где X (t) и Y (/) — стационарные случайные процессы. Теперь, определяя случайные величины как
Х1± Уг= X fo) ± Y (У, Z2 = Х2± Y2 = X & + т) ± ±Y(tx + т),
можно получить автокорреляционную функцию процесса Z (t) как
Rz (т) = Е [Z1Z2] = Е [(Xt ± YJ (Х2 ± Г2)] =
= Е [ХгХ2 + YxY2 ± XxY2 ± YiXt\ =
= Rx (т) -f- Ry (т) ± Rxy (т) ± Ryx (т)- (6.33)
Этот результат легко распространяется на сумму любого числа случайных процессов. В общем случае автокорреляционная функция такой суммы равна сумме всех автокорреляционных функций плюс-минус сумма всех взаимных корреляционных функций.
Если два рассматриваемых случайных процесса статистически независимы и математическое ожидание одного из них равно нулю, то обе взаимные корреляционные функции RXY (т) и RTx (т) в выражении (6.33) обращаются в нуль, и автокорреляционная функция суммы оказывается равной сумме автокорреляционных функций. Примером того, насколько важен этот результат, служит ситуация, связанная с задачей выделения периоди-
Предыдущая << 1 .. 78 79 80 81 82 83 < 84 > 85 86 87 88 89 90 .. 158 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed