Научная литература
booksshare.net -> Добавить материал -> Биология -> Купер Дж. -> "Вероятностные методы анализа сигналов и систем" -> 86

Вероятностные методы анализа сигналов и систем - Купер Дж.

Купер Дж., Макгиллем К. Вероятностные методы анализа сигналов и систем — М.:Мир, 1989. — 376 c.
ISBN 5-03-000366-5
Скачать (прямая ссылка): veroyatnostniemetodi1989.djvu
Предыдущая << 1 .. 80 81 82 83 84 85 < 86 > 87 88 89 90 91 92 .. 158 >> Следующая

а) Найдите автокорреляционную функцию суммы этих процессов.
б) Если автокорреляционная функция этой суммы существует, найдите такое т, при котором значение дайной автокорреляционной функции находится в пределах 1 % ее значения при т — оо.
Ответы. 0,439; 125 + 100 ехр (—10|т|).
Упражнение 6.8.2. Реализации х (t) случайного бинарного процесса X (/), аналогичного описанному в разд. 6.2, имеют амплитуды ±10 и /в = 0,01. Этот сигнал приложен к однополупериодному выпрямителю, схема которого показана ниже. Определите:
ИЭеальный
а) автокорреляционную функцию Ry (т) выходного сигнала,
б) взаимную корреляционную функцию Rxy (т).
в) взаимную корреляционную функцию Ryx (т).
Ответы: 25 + 25 (1 — | т |/0,01); 50 (1 — | т |).
6.9. Корреляционные матрицы выборочных функций
До сих пор обсуждение корреляции было сосредоточено только на двух случайных величинах. Таким образом, корреляционные функции стационарных процессов можно представить как функции одной переменной т. Тем не менее на практике нередко приходится иметь дело с большим числом случайных величин, поэтому необходимо разработать удобный метод представления большого числа возникающих при этом автокорреляционных и взаимных корреляционных функций. Векторные обозначения обеспечивают удобный способ представления пространства случайных событий, а произведение векторов, требующихся для получения корреляционных отношений, представляется в виде матрицы. Таким образом, важно обсудить ситуации, когда векторное представление является полезным, и описать некоторые свойства корреляционных матриц. Например, векторное представление оказывается полезным при описании сигнала, когда временная функция периодически дискретизируется в некоторые моменты времени. Пусть необходимо принимать во внимание только конечное число, скажем N, таких выборок. Тогда значение каждой выборки может стать компонентой (N X 1) вектора. Следовательно, если моменты времени, в которые происходит дискретизация, обозначить tlt t2, ..., tN, вектор, представляющий случайную временную функцию X (t), может быть представлен в виде
-X{h)
X(t2)
.X (tN)_
Каждая компонента вектора X является случайной величиной.
Теперь можно определить корреляционную матрицу размером (N X N), которая описывает корреляцию между каждой парой случайных величин X (/г). X (tj), i, j = 1, N:
Rx = ?[XXr] -
'Х(Ь)Х(Ь) Х(Ь)Х(Ь) . . . X (^) X (tN)
X{t2)X{h) X(t2)X(t2) . . . X(t2)X(tN)
ХЦЯ)Х&) X(tN)X(t2) . . . X(tN)X(t„)_
где Хг —транспонированная матрица X. Если выполнить усреднение каждого случайного элемента этой матрицы, то получим значение Rx {tt, tj) автокорреляционной функции случайного
процесса X (f), из которого была образована указанная выборка. Таким образом,
Rx = Rx{t\< ti) Rx (ti, t2) • • Rx (ti i tJV)
Rx (t2, h) Rx (h, Rx (t%, tit)
^Rx(tfi!’ h) Rx (tN1 t%) , . Rx (^rr> tN) _
где Rx {tu tj) = Е (X (ti) X (tj)l
Когда случайный процесс X (t) является стационарным в широком смысле, все компоненты матрицы Rx становятся функциями только временного интервала. Пусть промежуток времени At между моментами ti+1 и выборок X (/г+1) и X (tt) равен Д^ = ti+i — ti, при этом
4 = к "Ь А/,
tg = ti -f- 2 At,
= ti + (N - 1) At,
ГЯх(0] RxlAt] . . . RX[(N- 1)Д*П
Rx = ^[A/] Rx№] . . .
_RX[(N- 1) АП....... Rxl 0]
(6.46)
При написании этой матрицы было использовано свойство симметрии автокорреляционной функции: Rx [г Д t] = Rx [—i А /]. Учтите, что вследствие симметрии Rx — симметричная матрица (даже если процесс нестационарный) и ее главная диагональ (и все ей параллельные) содержат идентичные элементы.
Хотя свойства матрицы Rx логически вытекают из вышеприведенных определений, такой путь построения корреляционной матрицы случайного вектора, состоящего из выборок, не является общепринятым. Более широко распространен метод получения ковариационной матрицы, содержащей дисперсии и ковариации случайных величин. В общем случае ковариация между двумя случайными величинами определяется как
Е {[X {ti) - X (*,)] [X (tj) - X (/,)]} = atojPiJ, (6.47)*)
где X (tt) — математическое ожидание случайной величины X (tt); X (tj) — математическое ожидание X (tj); а? — дисперсия слу-
*) В ряде публикаций функцию (6.47) называют корреляционной и обозначают Rx (t{, tj) — Прим. ред.
чайной величины X (ti)\ о| — дисперсия X (t,); р(/- — нормированный коэффициент ковариации между X (/г) и X (tj), причем p,j = 1 при i = j. Ковариационная матрица определяется так:
Лх =Е[(\ - Х)(ХГ - ХГ)1.
(6.48)
где X — математическое ожидание матрицы X. Из определения ковариационной зависимости непосредственно следует
Предыдущая << 1 .. 80 81 82 83 84 85 < 86 > 87 88 89 90 91 92 .. 158 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed