Научная литература
booksshare.net -> Добавить материал -> Биология -> Купер Дж. -> "Вероятностные методы анализа сигналов и систем" -> 76

Вероятностные методы анализа сигналов и систем - Купер Дж.

Купер Дж., Макгиллем К. Вероятностные методы анализа сигналов и систем — М.:Мир, 1989. — 376 c.
ISBN 5-03-000366-5
Скачать (прямая ссылка): veroyatnostniemetodi1989.djvu
Предыдущая << 1 .. 70 71 72 73 74 75 < 76 > 77 78 79 80 81 82 .. 158 >> Следующая

тру. Данное положение подтверждается тем фактом, что у процесса, быстро изменяющегося во времени, высокочастотные составляющие должны обладать достаточной энергией, чтобы обеспечивать его изменения. С этой точки зрения случайные процессы более детально обсуждаются в следующих главах.
Введенное выше определение корреляции давало представление о корреляции как о некотором числе, так как случайные величины не зависели в обязательном порядке от времени. Однако в примере, который мы рассмотрим ниже, каждая пара случайных величин может быть охарактеризована разделяющим их временным интервалом, при этом корреляция становится функцией этого интервала. Поэтому для данного случая подходит использование так называемой корреляционной функции, у которой аргументом является временной интервал между двумя случайными величинами. Если эти случайные величины являются выборочными значениями одного и того же случайного процесса, то указанная функция называется автокорреляционной (или просто корреляционной) функцией данного процесса, если же они принадлежат различным случайным процессам — взаимной корреляционной функцией. Сначала рассмотрим автокорреляционные функции.
Пусть X (t) — некоторый случайный процесс, а случайные величины определяются как
*! = *&), ХЯ=Х(*,), тогда по определению автокорреляционная функция есть
оо со
Rxih, t2) = E[X1 Х2] = J dxx j x1x2f(x1, x2)dx2. (6.1)*
--CO -CO
Это определение справедливо как для стационарных, так и для нестационарных процессов. Однако нас интересуют в основном стационарные процессы, для которых допустимо упрощение выражения (6.1). Из сказанного в предыдущей главе следует, что для стационарного в широком смысле случайного процесса любое усреднение по ансамблю не зависит от начала отсчета времени. Соответственно, для такого стационарного процесса
Rx(к, к) = Rx(к + T,t, + Т) = е [х (к + т)х (tt + г)].
Поскольку это выражение инвариантно по отношению к выбору начала отсчета времени, можно положить Т = —и получить
Rx {к> к) = Rx (0, к к) ~ Е [X (0) X (4 ^i) L
Очевидно, что это выражение зависит только от промежутка
*) Довольно часто функцию (6.1) называют не корреляционной, а ковариационной и обозначают ее через Кх (ti, t2) — Прим. ред.
времени t2 — tx. Вводя обозначение г = t2 — tx и опуская нуль в аргументе Rx (0, t2 — ^1), можно (6.1) переписать как
Rx М = Е [X (tj) X (tx + т)]. (6.2)
Это выражение для автокорреляционной функции стационарного случайного процесса. Оно зависит только от г и не зависит от значения tx. Вследствие отсутствия зависимости от конкретного момента tlt в который произведено усреднение по ансамблю, индекс в выражении (6.2) обычно опускают; таким образом, эту зависимость можно представить в виде Rx {%) = Е [X (t) X (t + + т)]. В тех случаях, когда корреляционные функции описывают нестационарные процессы, они оказываются зависящими как от момента времени t, в который было осуществлено усреднение по ансамблю, так и от временного интервала т между реализациями и должны записываться как Rx {tu t2), или Rx (tl7 г). В этой и последующих главах, если не указано особо, всюду подразумевается, что все корреляционные функции относятся к стационарным в широком смысле случайным процессам.
Можно также определить временную автокорреляционную функцию для отдельной реализации х (t) как х)
т
31х (т) = lim (1/2Г) J х (t)x (i + x)dt = {x (t) x(t + t)>. (6.3)
7'->oo _j'
Для особого случая — эргодического процесса, {х (t) х (i + г)) является неизменной функцией для любой реализации х (t) и равной Rx (т), т. е. для эргодического процесса
^*М = Ях(г). (6.4)
Предположение об эргодичности, если оно не оказывается очевидно неправомерным, часто упрощает расчет корреляционных функций.
Из (6.2) непосредственно следует, что при г = 0 в силу Rx (0) = = Е [Х(^)Х(^)] автокорреляционная функция равна среднему квадрату случайного процесса. При г =? 0 автокорреляционная функция Rx (т) может интерпретироваться как мера подобия случайных процессов X (t) и X (t + г). Для иллюстрации данного утверждения положим, что X (t) — выборочная функция центрированного стационарного случайного процесса, и образуем новую функцию
К(/) = Х(0-рХ(* + т).
Определим такую величину р, которая минимизирует средний квадрат процесса Y (t). При этом мы получим меру подобия случайных процессов X (t + т) и X (t). Вычисление такого р производится путем расчета дисперсии случайного процесса Y (t),
!) Символ (...) используется для обозначения усреднения по времени.
приравнивания производной дисперсии по р нулю и решения полученного уравнения относительно р:
Е {[Г (ОП = Е {IX (0 - РХ (t + т)П =
= Е {X2 (0 - 2рХ (О X (/ + г) + р2Х2 (t + х)\,
(6.5)
Предыдущая << 1 .. 70 71 72 73 74 75 < 76 > 77 78 79 80 81 82 .. 158 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed