Курс теории случайных процессов - Вентцель А.Д.
Скачать (прямая ссылка):
Примеры, приведенные в § 2, — не гауссовские случайные функции, за исключением примеров, связанных с винеровским процессом (см. формулу (2) § 2), и примера 1.
Задача 1*. Выясните, при каких условиях на случайные величины А, т| процесс примера 1 § 2— гауссовский.
Многомерная центральная предельная теорема является основанием того, что гауссовские случайные функции иногда оказываются в каком-то смысле предельными для сумм возрастающего числа независимых случайных функций. Таков пример 5 § 2 (выясните, какие случайные функции нужно складывать, чтобы получить Fп (х)).
2. Мы говорим, что числовой (или векторный)
случайный процесс It, i^T ^Rl, — процесс с независимыми приращениями, если его приращения на неперекрывающихся отрезках не зависят друг от друга: для /о /i ... ^ tn, ti <= T, случайные величины Ьх—ъа, — ltn — независимы.
Рассмотренные в § 1.2 пуассоновский процесс, винеровский процесс, процесс Коши, процесс из примера 9 — процессы с независимыми приращениями (это входит в их определение — требование I). Другой класс примеров относится не к произвольному TsR1, а к Т = Z+ — {0, 1, 2, ...}: последовательность |л с независимыми приращениями, = 0, — это не что иное, как последовательность сумм независимых случайных величин |4 = = ?i — go, 1г — gi, ...
2'. Соответствующее понятие «в широком смысле»: случайный процесс М|^|2<оо, называется процессом с некоррелированными приращениями, если его приращения на неперекрывающихся отрез-
34
ках некоррелированы, т. е. для to ^ t\ ^ /2 имеем
cov(g/, — lt„ lu — lt) = Q.
Достаточно потребовать только некоррелированности %и — Ъ2 — Ъх для любых ^ ^ 12. Дей-
ствительно, в этом случае
cov (|/, ?<„, Sf2)= cov (s/, g/0, g/,
— COV (?f, — lt„ lt2 — It) = 0.
Если математические ожидания всех рассматриваемых случайных величин равны нулю, то некоррелированность совпадает с ортогональностью относительно скалярного произведения (», л) “ г), так что в этом случае говорят о процессах с орто-
гональными приращениями. Это — кривые в гильбертовом пространстве, обладающие таким свойством: части кривой, отвечающие значениям -параметра, меньшим или равным какого-то t, и большим или равным t, лежат в ортогональных друг другу линейных многообразиях. В конечномерных пространствах таких кривых (непрерывных) нет.
Если \t — процесс с независимыми приращениями, М|?<|2<°°, то он также является и процессом с некоррелированными приращениями; если \t — гауссовский процесс с некоррелированными приращениями, то это также и процесс с независимыми приращениями.
Такое соотношение между понятиями «в узком смысле» и «в широком смысле» типично; см. далее.
3. Стационарные процессы. Мы говорим, что случайный процесс ?/, ieTg R1, является стационарным, если для любого действительного h его конечномерные распределения не меняются при сдвиге на h:
H'/i, •••. tn — V'tl+h. tn+h, (1)
если только tit ..., tn, tx-\-h, ..., tn-\-h^.T.
В той мере, в какой теория случайных процессов отражает какие-то явления реального мира, понятие стационарности случайного процесса отражает идею неизменности условий, в которых протекает процесс. Математическими моделями многих практически важных процессов, содержащих в себе элементы неопределенности, с разумной степенью приближения могут служить стационарные процессы. Так, это понятие может быть полезным, если речь идет о колебаниях движущегося с постоянной скоростью экипажа (но не того же экипажа при торможении) или о последовательности знаков (букв) какого-либо текста.
Конечно, понятие стационарного процесса важно и с чисто математической точки зрения.
2*
35
В качестве множества Т значений временного параметра чаще всего рассматривают № или R+ = = [0, оо), или множество Z1 всех целых чисел, или Z+= {0, 1, 2, .. .}, или натуральный ряд {1, 2, ...} (в последних трех случаях говорят о стационарных последовательностях).
Из примеров, рассмотренных в § 1.2, стационарными являются процессы примеров 1, 8.
3'. Числовой случайный процесс называется стационарным в широком смысле, если у него существуют первые и вторые моменты и они не меняются при сдвиге:
mt+h=mt, K(t + h, s + h)=K(t, s). (2)
Легко видеть, что условия (2) равносильны тому, что Mgf не зависит от t, а корреляционная функция зависит только от разности t — s:
Мg, = m, K(t, s) = K(t-s).
Здесь вторая функция, которая также обозначена буквой К, называется корреляционной функцией стационарного процесса:
/C(t) = cov (^+t, |s).
В корреляционной функции стационарного процесса аргумент т имеет смысл разности двух моментов времени.
Если стационарный процесс имеет два первых момента, то он, как легко понять, будет стационарным и в широком смысле; для гауссовских процессов оба понятия совпадают.