Научная литература
booksshare.net -> Добавить материал -> Математика -> Бриллинджер Д.Р. -> "Временные ряды. Обработка данных и теория." -> 93

Временные ряды. Обработка данных и теория. - Бриллинджер Д.Р.

Бриллинджер Д.Р. Временные ряды. Обработка данных и теория.: Монография. Перевод с английского.. Под редакцией А.Н. Колмогорова — М.: Мир, 1980. — 536 c.
Скачать (прямая ссылка): 1980brillindzher_d_vremennye_ryady_obrabotka_dannyh_i_teoriya.djvu
Предыдущая << 1 .. 87 88 89 90 91 92 < 93 > 94 95 96 97 98 99 .. 163 >> Следующая


конечных выборках значений Х(^), Y(^), ^ = 0, ...,T — 1. Главное отличие проблематики, затронутой в этой главе, от материала гл. 6 связано с тем, что основной ряд Х(/), t = 0, ± 1, мы считаем стохастическим, а не детерминированным.

В следующем параграфе приводится обзор результатов, относящихся к аналогичным задачам для многомерных случайных величин.

8.2- Результаты для многомерных случайных величин

Напомним читателю, что в множестве эрмитовых матриц вводится частичное упорядочение

А>В, (8.2.1)

означающее, что матрица А —В неотрицательно определена. Это отношение порядка обсуждается, например, в книгах: Bellman (1960), Гельфанд и др. (1960) и Siotani (1967). Среди следствий неравенства (8.2.1) отметим такие:

Det А > Det В, (8.2.2)

tr A^trB, (8.2.3)

A11^ Bn (8.2.4)

(А)>^ (В), (8.2.5)

здесь [Xy(A), [Xy(B) обозначают /-е в порядке возрастания собственные значения А и В соответственно.

Далее, когда в формулировке теоремы речь пойдет о минимизации эрмитовой матричной функции А (9) аргумента 9, под этим будет подразумеваться отыскание такого значения O0, что

А(9)> А(90) (8.2.6)

при всех 9. Значение A(G0) называется минимальным значением А (9). Заметим* что если 90 минимизирует А (9), то из (8.2.2) — (8.2.5) вытекает, что G0 минимизирует одновременно функционалы Det А (9), trA(9), Л;7(9) и ^¦(A(G))/

Введем еще некоторые новые обозначения. Пусть Z —произвольная матрица со столбцами Z1, Z/. Тогда вектор-столбец, составленный из столбцов матрицы Z, помещенных один под другим, обозначим '

vecZ== і 1 . (8.2.7)

Для любых матриц UhV назовем их кронекеровым произведением матрицу U® V, составленную из блоков по следующему правилу: если V имеет размеры JxK, то

U®V =


• vv1K-




(8.2.8)

Два вновь введенных объекта связаны важным соотношением

(U ® V) vec Z - vec (UZVT) . (8.2.9)

(предполагается, что матрицы, фигурирующие здесь, имеют надлежащие размеры), см. упр. 8.16.26. Neudecker (1968) и Nissen (1968; рассматривают приложения этих определений в статистике.

Займемся теперь поисками минимума. Пусть случайные векторы XhY имеют соответственно г и s компонент. Рассмотрим (r + s)-мерный вектор

X

[v]

Допустим, что (8.2.10) имеет среднее значение

и ковариационную матрицу

^xx ^xy

(8.2.10)

(8.2.11)

(8.2.12)

Если мы хотим найти s-компонентный вектор \л и sxr-матрицу а, минимизирующие sxs-эрмитову матрицу

?{[Y-fi-aX][Y-fi-aX]^, (8.2.13)

то решение этой задачи дает

Теорема 8.2.1. Пусть задан (г + sy мерный случайный вектор (8.2.10) со средним (8.2.11) и ковариационной матрицей (8.2.12). Предположим, что матрица %Хх невырожденна. Тогда (8.2.13) минимизируют величины

= 2 yx^xx

a = SjTxSx1X-

(8.2.14) (8.2.15)

Соответствующее минимальное значение равно

2КК—SvySxxSvv. (8.2.16)

Назовем величину а, определенную формулой (8.2.15), коэффициентом регрессии Y на X. Случайный вектор

liy+ZYXZx\ (X-Iix) (8.2.17)

называется наилучшим линейным прогнозом Y, основанным на X. Указанные в теореме jm и а доставляют также минимум детерминанту, следу, диагональным элементам и собственным значениям матрицы (8.2.13). Дадим библиографические ссылки на эту теорему: Whittle (1963а, гл. 4), Goldberger (1964, стр. 280), Rao (1965), Khatri (1967). При S=I квадрат коэффициента корреляции Y с его наилучшим линейным прогнозом, именуемый квадратом множественного коэффициента корреляции, имеет вид

RIx = *™*^***- ' (8.2.18)

В случае многомерной величины Y рассматривают матрицу Нуу 2HyxHx хНХуНуу2 \ с ней мы встретимся при обсуждении канонических корреляций в гл. 10. Полезными могут оказаться функции этой матрицы, принимающие действительные значения, скажем ее след и детерминант. Эта матрица была введена в работе Khatri (1964). Tate (1966) сделал ряд замечаний о многомерных аналогах коэффициента корреляции, см. также Williams (1967) и Hotelling (1936).

Определим векторную случайную величину

8= Y-IIy-HyxHx1x (X-Iix), (8.2.19)

которую будем называть ошибкой. Она представляет собой остаточный член при аппроксимации Y лучшим линейным прогнозом, основанным на X. Ковариационная матрица для 8 задается формулой

Sєє == S уу—HУХН\~xxH хк, (8.2.20)

т. е. совпадает с матрицей (8.2.16). Ковариация величины еу. с ek называется частной ковариацией Yj с Yk, она выступает в качестве меры линейной зависимости величин Yj- и Y\, остающейся после удаления линейного влияния X. Аналогичным образом коэффициент корреляции 8у. и ek называется частной корреляцией Y1 с Yk. Эти параметры рассмотрены в книгах: Kendall, Stuart (1961), гл. 27, и Morrison (1967, гл. 3).

В том случае, когда величина (8.2.10) имеет многомерное нормальное распределение, ее прогноз, предлагаемый теоремой 8.2.1, оказывается наилучшим в более широком классе прогнозов.

Теорема 8.2.2. Предположим, что многомерная случайная величина (8.2.10) со средним (8.2.11) и дисперсией (8.2.12) распределена по нормальному закону, и пусть матрица lixx невы-рожденна. Векторная s-компонентная функция Ф(Х), имеющая E {Ф (Х)ТФ (X)} < оо, которая минимизирует
Предыдущая << 1 .. 87 88 89 90 91 92 < 93 > 94 95 96 97 98 99 .. 163 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed