Научная литература
booksshare.net -> Добавить материал -> Физика -> Ширяев А.Н. -> "Вероятность" -> 102

Вероятность - Ширяев А.Н.

Ширяев А.Н. Вероятность — МГУ, 1957. — 581 c.
Скачать (прямая ссылка): veroyatnost1957.pdf
Предыдущая << 1 .. 96 97 98 99 100 101 < 102 > 103 104 105 106 107 108 .. 179 >> Следующая

где х = (х1( ... , хп), | ^4 | = det Л. Эта функция является
неотрицательной. Покажем, что
f(x)dx = eHt-,n)-i(Rt'1),
R'1
или, что то же,
/я= j = Г(r)'1') . (7)
Rn
Сделаем в интеграле замену переменных
x - m - 0u, t = 0v, где <2? - ортогональная матрица такая, что
<0R<0 - D,
§ 13. ГАУССОВСКИЕ СИСТЕМЫ 319
- диагональная матрица с (см. доказательство леммы в § 8).
Поскольку | R | = det R Ф 0, то dt > 0, i = 1, ,,, , п.
Поэтому
|^| = | R-1| = сД1... dnl. (8)
Далее (см. обозначения п.1 § 12) i(t, х - т) - у {А (х - т), (х-т)) =
= i(0v, 0и) - у (А0и, 0и)=>
= i (0v)*0u - у (0и)*А (0и) =
= iv*u - ~ и*0*А0и - iv*u - у Вместе с (8) и (12.9) это дает
/ ________ ^_______ l piv*u i- "¦?>-"" fjn .
Jn (2л )^(Й1...^2Зе 2
Rn
"I -A- 4**
4=l' я/ -oo 4=1
Из (6) следует также, что
^f(x)dx=* 1. (9)
Rn
Таким образом, функция (5) является характеристической функцией n-мерного
(невырожденного) гауссовского распределения (см. п. 3 § 3).
Пусть теперь матрица [R вырожденная. Возьмем 8>0 Я рассмотрим
положительно определенную симметрическую матрицу [Re == [R 4-еД. Тогда по
доказанному функция
ф.(0=в""-т(В"'0
является характеристической:
Ф8 (0 = f ei{i- х) dFе (х),
Rn
где Де (х) - F&(xlt..., х") - "-мерная функция распределения.
При е О
320 ГЛ II. МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
Предельная функция <р (t) непрерывна в нулевой точке (0,... , 0).
Поэтому, согласно теореме 1 и задаче "1 из § 3 гл. III, она является
характеристической.
Итак, корректность определения 1 установлена.
3. Выясним смысл вектора т и матрицы R = ||rkl\\, входящих в
характеристическую функцию (5).
Поскольку
П п
In (0 = / (*, т) - yflR*, t) = i ^ tkmk-~ 2] rk'tktl' (I0)
*t=i *,/= l
то из (12.35) и формул связи моментов и семиинвариантов находим, что
т1 = s5<>-o, о" = ... , тк = s4<°..°- '> = М?,г.
Аналогично
П1=5|(2-0 0) = Dg1, /-12 = ss(1' i> ° •••) = cov (gj,
g2),
и вообще
гы = сом {Ik, h).
Таким образом, т есть вектор средних значений g, a R - матрица
ковариаций.
Если матрица (R невырожденная, то к этому результату можно было бы прийти
и иначе. Именно, в этом случае вектор \ имеет плотность f (х), задаваемую
формулой (6). Тогда прямой подсчет показывает, что
М lkBs\xkf{x)dx = mk, (11)
cov (Ik, h) = $ (xk - mk) (xt - mi) f (x) dx = rkl.
4. Обратимся к рассмотрению некоторых свойств гауссовских векторов.
-Теорема 1. а) У гауссовского вектора некоррелированность его компонент
эквивалентна их независимости;
Ь) вектор ? = , сл) является гауссовским тогда и только
тогда, когда для любого вектора X - (XV... , А."), Xk^R, случайные
величины (?,Я)=Я1^1+ имеет гауссовское распре-
деление.
Доказательство, а) Если компоненты вектора ? = (sx,... ..., !¦")
некоррелированы, то из вида характеристической функции фе (/) следует,
что она является произведением характеристических функций
п
Фб (0 = Ц (*")•
k=\
Поэтому в силу теоремы 4 § 12 компоненты независимы.
§ 13. ГАУССОВСКИЕ СИСТЕМЫ 321
Обратное утверждение очевидно, поскольку из независимости всегда следует
некоррелированность.
Ь) Если | - гауссовский вектор, то из (5) следует, что
М exp |tY + ¦ ¦ • + ЬЛ)} = exp {it hmk) -
--у t^R,
и, следовательно,
(1, Я) ~ (? S/'aAA)-
Обратно, гауссовость случайной величины (?, Я) = ?ХЯХ + ...+ + ?ЛЯ"
означает, в частности, что
Ме- ИМ = ет (|'м " ^ = S Х*М6*~ Т 2 X*^cov iik' h).
В силу произвольности Ях, ... Я" и из определения 1 отсюда следует, что
вектор ^ = (1х, ... , |") - гауссовский.
Теорема доказана.
Замечание. Пусть (0, |)- гауссовский вектор с 0 = (01,... ...,0й), i =
(?i, ... , Ы- Если векторы 0 и ? некоррелированы, т. е. соv (0/, |/) = 0,
i - 1, ... , k, j = 1, ... , I, то они и независимы. Доказательство- то
же, что и для утверждения а) теоремы. Пусть | = (^1,..., ?") -гауссовский
вектор, и для простоты будем предполагать, что -вектор средних значений
является нулевым. Если rang R = г •< ", то, как было показано в § 11,
существует ровно п - r линейных соотношений между величинами |х, ... ,
\п. В этом случае можно считать, что, скажем, величины |1( ... , линейно
независимы, а все остальные через них линейно выражаются. Поэтому все
основные свойства вектора ? = (?х, ..., ?") определяются первыми г
.компонентами (?х, ... , \г), для которых соответствующая матрица
ковариаций уже является невырожденной.
Итак, можно считать, что исходный вектор | = (|х,..., |") уже таков, что
его компоненты линейно независимы и, значит,
IR1 >0.
Пусть <2? - ортогональная матрица, приводящая R к диагональному виду
(c)*R(c) - D.
Все диагональные элементы матрицы D положительны, и, следовательно,
определена обратная матрица. Положим B2 = D и
Р=В-1(c)*1.
Тогда легко убедиться, что
Ме'К.") = Ме-'Р= е <?/'п >
322 ГЛ II. МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
т. е. Еектор P = (Plt , р") -это гауссовский вектор с некоррелированными,
а значит (теорема 1), и независимыми компонентами. Тогда, обозначая А =
<ёВ, получаем, что исходный гауссовский вектор | = (|1, ..., ?")
Предыдущая << 1 .. 96 97 98 99 100 101 < 102 > 103 104 105 106 107 108 .. 179 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed