Научная литература
booksshare.net -> Добавить материал -> Физика -> Ширяев А.Н. -> "Вероятность" -> 103

Вероятность - Ширяев А.Н.

Ширяев А.Н. Вероятность — МГУ, 1957. — 581 c.
Скачать (прямая ссылка): veroyatnost1957.pdf
Предыдущая << 1 .. 97 98 99 100 101 102 < 103 > 104 105 106 107 108 109 .. 179 >> Следующая

представляется в виде
Е = ЛР, (12)
где р = (Р1( р") - гауссовский вектор с независимыми компо-
нентами, рЛ~(r)^°(0,1). Отсюда вытекает следующий результат. Пусть ! = (?!,
... , |л) - вектор с линейно независимыми компонентами, М?* = 0, k- l,
... , п. Этот вектор является гауссовским тогда и только тогда, когда
существуют независимые гауссовские величины pt,... , рп, р*~(c)^(0,1), и
невырожденная матрица А порядка я такие., что ? = Лр. При этом R = А А* -
матрица ковариаций вектора ?.
Если |R|=^0, то, согласно методу ортогонализации Грама - Шмидта (см. §
11),
ift = t кЛ-Ькгк, й=1,...,я, (15)
где в силу гауссовости вектор е = (е1( ..., ек) ~ (О, Е),
k -1
1* = У] (h, Et) eh (14)
i = i
ьк=\li*-i*|| (is)
и
.... Ы=#{е" .... е*}. (16)
Из ортогонального разложения (13) сразу получаем, что
ift=M(i* iift-if..., у. (17)
Вместе с (16) и (14) отсюда следует, что в гауссовском
случае
условнее математическое ожидание М (?* ( §*-!, ..., ij является
линейной функцией от (^, ..., ift_j):
k-i
M(ift lift-г, ..., ii) = 2 atb. (18)
i = l
(В случае k - 2 этот результат был установлен в § 8.)
Поскольку, согласно замечанию к теореме 1 §8, M(i*!ift_1, ..., it)
является оптимальной (в среднеквадратическом смысле) оценкой по ii, ...,
ift-ц то из (18) следует, что в гауссовском случае оптимальная оценка
оказывается линейной.
Используем эти результаты для отыскания оптимальной оценки вектора 8 =
(бц ..., 6А) по вектору i = (i^ ..., i,) в предположении,
§ 13 ГАУССОВСКИЕ СИСТЕМЫ 323
что (0, ?) -гауссовский вектор. Обозначим
me = M0, m6 = M?
- векторы-столбцы средних значений и
Dee = cov (0, 6) = J cov (S,-, 6y) p, 1 < i, j^k,
D0^ = cov (0, ?) =! cov (0,-, ?/) I, 1 < i <&, 1 < /< /,
D^| = cov (?, ?) = i cov (?,-, ?,) [|, l<t, /</,
- матрицы ковариаций. Предположим, что матрица имеет обратную матрицу.
Тогда справедлива следующая
Теорема 2 (теорема о нормальной корреляции). Для гауссовского вектора (9,
?) оптимальная оценка М (8 j?) вектора 8 по ? и ее матрица ошибок
Д = М[0-М(8 |?)][0-M(9i?)]* задаются следующими формулами:
M(0||)=-m0 + De|Dg(?-/n6), (19)
А = Dee - D0^Dy (D0|)*. (20)
Доказательство. Образуем вектор
11 = (0-mo)-D9lDg(?-m6). (21)
Тогда непосредственно проверяется, что Mr] (? - гт)* = 0, т. е. вектор г]
не коррелирован с вектором (? - т{). Но в силу гаус-совости (6, ?) вектор
(т), ?) также будет гауссовским. Отсюда в силу замечания к теореме 1
векторы г) и \ - т^ независимы. Значит, независимы т] и ? и,
следовательно, М (rj 1 ?). = Mr] = 0-Поэтому
М [0 - те | ?] - DelDg (? - тг) = 0,
что и доказывает представление (19).
Для доказательства (20) рассмотрим условную ковариацию
cov (О, 0 ] ?) = М [(6 - М (9 | ?)) (0 - М (0 | ?))* | ?]. (22)
Поскольку 0-М(0|?) = г], то в силу независимости т] и ? находим, что
COV (0, 0 | ?) = М (г|г|* | ?) = Мгщ* =
= Dee + D0|D||D№D|iDei - 2De|Df|D^Dr|Dgj = De0 - D0|D||Dq5.
Поскольку cov (0, 0|?) не зависит от "случая", то A = Mcov(0, 0|?) =
cov(0, 0 | ?), что и доказывает представление (20).
324 ГЛ. II. МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
Следствие. Пусть (0, ?") - (п+ 1)-мерный гауссов-
ский вектор, причем §х, \п независимы. Тогда
М (01 U = M0+2'??^|7-(Ь-МЪ),
1 = 1 1
д=[и_2
i = i 1
(ср. с формулами (8.12), (8.13)).
5, Пусть ?х, ?2> ... - последовательность гауссовских случайных векторов,
сходящаяся по вероятности к вектору ?. Покажем, что вектор \ также
является гауссовским.
В соответствии с утверждением а) теоремы 1 достаточно показать это лишь
для случайных величин.
Пусть тп - Щ.п, Oh = D|". Тогда по теореме Лебега о мажорируемой
сходимости
1 im = 1 im Ме^ = Ме"\
гг-*со п-* оо
Из существования предела в левой части вытекает, что найдутся такие т и
о2, что
т= lim тп, о2- lim о%.
п-*со п -* со
Следовательно,
. i(m - Т о2Р
= е 2 ,
т. е. Ё~(r)^(т, а2).
Отсюда, в частности, вытекает, что замкнутое линейное многообразие Ё2>
••• }> порожденное гауссовскими величинами
Ё], Н2, ... (см. п. 5 § 11), состоит из гауссовских величин.
6. Перейдем теперь к определению общих гауссовских систем. Определение 2.
Совокупность случайных величин ? = {?а}>
где а принадлежит некоторому множеству индексов 31, называется
гауссовской системой, если для любого п^1 и любых ал, ..., ап из 31
случайный вектор (gai, ..., Ёа ) является гауссовским. Отметим некоторые
свойства гауссовских систем.
a) Если ? = (На), а е 31, - гауссовская система, то всякая ее подсистема
?'= (!"-), а' е 31' ^ 31, также является гауссовской.
b) Если ?а, а е 31, - независимые гауссовские величины, то система ? =
(Еа), а е 31, является гауссовской.
c) Если 1 = а е 31,-гауссовская система, то замкнутое
П
линейное многообразие 5? (?), состоящее из величин вида
§ 13. ГАУССОВСКИЕ СИСТЕМЫ 325
и их пределов в среднеквадратическом смысле, образует гауссовскую
систему.
Заметим, что утверждение, обратное к свойству а), вообще говоря, неверно.
Например, пусть и независимы и
@4^ (0, 1), т]1~(r)^'"(0, 1). Определим систему
Предыдущая << 1 .. 97 98 99 100 101 102 < 103 > 104 105 106 107 108 109 .. 179 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed