Научная литература
booksshare.net -> Добавить материал -> Биология -> Купер Дж. -> "Вероятностные методы анализа сигналов и систем" -> 79

Вероятностные методы анализа сигналов и систем - Купер Дж.

Купер Дж., Макгиллем К. Вероятностные методы анализа сигналов и систем — М.:Мир, 1989. — 376 c.
ISBN 5-03-000366-5
Скачать (прямая ссылка): veroyatnostniemetodi1989.djvu
Предыдущая << 1 .. 73 74 75 76 77 78 < 79 > 80 81 82 83 84 85 .. 158 >> Следующая

Rx (0) = X2. Таким образом, средний квадрат случайного процесса X (t) легко найти, положив в его автокорреляционной функции г = 0.
Следует подчеркнуть, что Rx (0) является средним квадратом случайного процесса X (t) независимо от того, равно ли его математическое ожидание нулю, или нет. Если математическое ожидание X равно нулю, то средний квадрат равен дисперсии этого процесса.
2. Rx (т) = Rx (—г)- Автокорреляционная функция является четной относительно т.
Это наиболее очевидно, вероятно, когда автокорреляционная функция усреднена по времени, что для эргодического случайного процесса равносильно усреднению по ансамблю. В этом случае производится усреднение по времени для того же самого произведения, независимо от направления временного сдвига одной из функций. Свойство симметрии исключительно полезно при вы-
числении автокорреляционной функции случайного процесса, поскольку оно означает, что данное вычисление можно произвести только для положительных т, а результат для отрицательных т определить на основании свойства симметрии. Таким образом, при расчетах, проведенных в примере разд. 6.2, можно было учитывать только т 0. Для нестационарного процесса свойство симметрии справедливо не всегда.
3. .|#т(т)[ Rx (0). Наибольшее значение автокорреляционная функция, как правило, принимает при т = 0. Однако в ряде случаев могут существовать иные значения т, для которых эта функция имеет такое же значение (например, для периодической функции X (t)), но и для иих Rх (т) не может быть больше Rx (0). Это видно из следующих рассуждений:
Е [(X, ± X2f] = Е [X2 + Xl ± 2М2] > 0,
Е \Х\ + XI] = 2Rx (0) > | Е (2Х,Х2) | = 2\RX (т) |, (6.7)
Rx(0)>\Rx(r)\.
4. Если X (t) содержит постоянную составляющую или имеет ненулевое математическое ожидание, то функция Rx (т) также будет иметь постоянную составляющую. Например, если X (t) = = А, то
Rx (т) - Е \Х (М X (/, + х) 1 = Е \АА 1 = Л2. (6.8)
Предположим теперь, что функция X (t) может быть представлена в форме суммы ее математического ожидания X и составляющей N (t) с нулевым математическим ожиданием так, что X (t) = = X + N (t), тогда
Rx(г) -^E\[X + Nft)! [X + N(t, + t)]} =
= E [(X)1 + XN (h) + XN (t, + x) + N (M N (t, + t)] =
= (*)¦ + /?*(*). (6-9)
так как по условию Е [N (^)] — Е [N (^ + т) ] = 0. Таким образом, и в этом случае Rx (т) содержит постоянную составляющую, равную квадрату математического ожидания (Х)г процесса X (t).
При рассмотрении эргодического случайного процесса значение математического ожидания может быть определено по автокорреляционной функции при т, стремящемся к бесконечности, и при условии, что любыми периодическими составляющими автокорреляционной функции в пределе можно пренебречь. Поскольку в результате таких вычислений получается только квадрат математического ожидания X, определение его знака не пред-
ставляется возможным. Если исследуемый случайный процесс стационарный, но не эргодический, функция Rx (т) может и не содержать никакой информации относительно его математического ожидания. Например, случайный процесс X с выборочным значением вида х (t) = А, где А —случайная величина с нулевым математическим ожиданием и дисперсией а%, имеет автокорреляционную функцию Rx (т) = а% для любых т. Таким образом, автокорреляционная функция при т = оо не обращается в нуль, даже несмотря на то что математическое ожидание процесса X (t) равно нулю. Этот странный результат является следствием того, что рассматриваемый случайный процесс не является эргоди-ческим.
5. Если X (t) — периодический процесс, то Rx (т) также будет периодической функцией с таким же периодом. Например, пусть X (t) = A cos (соt + 0), где Л и со — постоянные, а 0 — случайная величина, равномерно распределенная в диапазоне от 0 до 2п,
j 1/2я при О<0<2я,
{о при других 0.
Тогда
Rx (г) = Е [A cos (©/, + 9) A cos (со*! -f- сот + 9)1 = !
= Е [(Л2/2) cos (2со^ -f- ют + 20) + M2/2) cos сот] =
2п
= (Л2/2) [ (1/2я) [cos (2со^ + сот + 20) + cos мт] dB = (Л2/2) cos сот.
(6.10)
В более общем случае X (t) = A cos (соt + 0) + N (fx), где 0
и N (fx) — статистически независимые случайные величины для
всех tu с помощью метода, использованного при выводе (6.9), легко показать, что
Rx (т) = (А2/2) cos ют + RN (т). (6.11)
Следовательно, автокорреляционная функция и в этом случае содержит периодическую составляющую.
Это свойство автокорреляционных функций может быть распространено на случайные процессы, содержащие любое количество периодических компонентов. Если случайные процессы, содержащие периодические составляющие, статистически независимы, то автокорреляционная функция суммы периодических компонентов равна просто сумме периодических автокорреляционных функций каждой из этих составляющих. Это утверждение справедливо независимо от того, являются ли составляющие гармонически связанными, или нет.
Предыдущая << 1 .. 73 74 75 76 77 78 < 79 > 80 81 82 83 84 85 .. 158 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed