Временные ряды. Обработка данных и теория. - Бриллинджер Д.Р.
Скачать (прямая ссылка):
конечных выборках значений Х(^), Y(^), ^ = 0, ...,T — 1. Главное отличие проблематики, затронутой в этой главе, от материала гл. 6 связано с тем, что основной ряд Х(/), t = 0, ± 1, мы считаем стохастическим, а не детерминированным.
В следующем параграфе приводится обзор результатов, относящихся к аналогичным задачам для многомерных случайных величин.
8.2- Результаты для многомерных случайных величин
Напомним читателю, что в множестве эрмитовых матриц вводится частичное упорядочение
А>В, (8.2.1)
означающее, что матрица А —В неотрицательно определена. Это отношение порядка обсуждается, например, в книгах: Bellman (1960), Гельфанд и др. (1960) и Siotani (1967). Среди следствий неравенства (8.2.1) отметим такие:
Det А > Det В, (8.2.2)
tr A^trB, (8.2.3)
A11^ Bn (8.2.4)
(А)>^ (В), (8.2.5)
здесь [Xy(A), [Xy(B) обозначают /-е в порядке возрастания собственные значения А и В соответственно.
Далее, когда в формулировке теоремы речь пойдет о минимизации эрмитовой матричной функции А (9) аргумента 9, под этим будет подразумеваться отыскание такого значения O0, что
А(9)> А(90) (8.2.6)
при всех 9. Значение A(G0) называется минимальным значением А (9). Заметим* что если 90 минимизирует А (9), то из (8.2.2) — (8.2.5) вытекает, что G0 минимизирует одновременно функционалы Det А (9), trA(9), Л;7(9) и ^¦(A(G))/
Введем еще некоторые новые обозначения. Пусть Z —произвольная матрица со столбцами Z1, Z/. Тогда вектор-столбец, составленный из столбцов матрицы Z, помещенных один под другим, обозначим '
vecZ== і 1 . (8.2.7)
Для любых матриц UhV назовем их кронекеровым произведением матрицу U® V, составленную из блоков по следующему правилу: если V имеет размеры JxK, то
U®V =
• vv1K-
(8.2.8)
Два вновь введенных объекта связаны важным соотношением
(U ® V) vec Z - vec (UZVT) . (8.2.9)
(предполагается, что матрицы, фигурирующие здесь, имеют надлежащие размеры), см. упр. 8.16.26. Neudecker (1968) и Nissen (1968; рассматривают приложения этих определений в статистике.
Займемся теперь поисками минимума. Пусть случайные векторы XhY имеют соответственно г и s компонент. Рассмотрим (r + s)-мерный вектор
X
[v]
Допустим, что (8.2.10) имеет среднее значение
и ковариационную матрицу
^xx ^xy
(8.2.10)
(8.2.11)
(8.2.12)
Если мы хотим найти s-компонентный вектор \л и sxr-матрицу а, минимизирующие sxs-эрмитову матрицу
?{[Y-fi-aX][Y-fi-aX]^, (8.2.13)
то решение этой задачи дает
Теорема 8.2.1. Пусть задан (г + sy мерный случайный вектор (8.2.10) со средним (8.2.11) и ковариационной матрицей (8.2.12). Предположим, что матрица %Хх невырожденна. Тогда (8.2.13) минимизируют величины
= 2 yx^xx
a = SjTxSx1X-
(8.2.14) (8.2.15)
Соответствующее минимальное значение равно
2КК—SvySxxSvv. (8.2.16)
Назовем величину а, определенную формулой (8.2.15), коэффициентом регрессии Y на X. Случайный вектор
liy+ZYXZx\ (X-Iix) (8.2.17)
называется наилучшим линейным прогнозом Y, основанным на X. Указанные в теореме jm и а доставляют также минимум детерминанту, следу, диагональным элементам и собственным значениям матрицы (8.2.13). Дадим библиографические ссылки на эту теорему: Whittle (1963а, гл. 4), Goldberger (1964, стр. 280), Rao (1965), Khatri (1967). При S=I квадрат коэффициента корреляции Y с его наилучшим линейным прогнозом, именуемый квадратом множественного коэффициента корреляции, имеет вид
RIx = *™*^***- ' (8.2.18)
В случае многомерной величины Y рассматривают матрицу Нуу 2HyxHx хНХуНуу2 \ с ней мы встретимся при обсуждении канонических корреляций в гл. 10. Полезными могут оказаться функции этой матрицы, принимающие действительные значения, скажем ее след и детерминант. Эта матрица была введена в работе Khatri (1964). Tate (1966) сделал ряд замечаний о многомерных аналогах коэффициента корреляции, см. также Williams (1967) и Hotelling (1936).
Определим векторную случайную величину
8= Y-IIy-HyxHx1x (X-Iix), (8.2.19)
которую будем называть ошибкой. Она представляет собой остаточный член при аппроксимации Y лучшим линейным прогнозом, основанным на X. Ковариационная матрица для 8 задается формулой
Sєє == S уу—HУХН\~xxH хк, (8.2.20)
т. е. совпадает с матрицей (8.2.16). Ковариация величины еу. с ek называется частной ковариацией Yj с Yk, она выступает в качестве меры линейной зависимости величин Yj- и Y\, остающейся после удаления линейного влияния X. Аналогичным образом коэффициент корреляции 8у. и ek называется частной корреляцией Y1 с Yk. Эти параметры рассмотрены в книгах: Kendall, Stuart (1961), гл. 27, и Morrison (1967, гл. 3).
В том случае, когда величина (8.2.10) имеет многомерное нормальное распределение, ее прогноз, предлагаемый теоремой 8.2.1, оказывается наилучшим в более широком классе прогнозов.
Теорема 8.2.2. Предположим, что многомерная случайная величина (8.2.10) со средним (8.2.11) и дисперсией (8.2.12) распределена по нормальному закону, и пусть матрица lixx невы-рожденна. Векторная s-компонентная функция Ф(Х), имеющая E {Ф (Х)ТФ (X)} < оо, которая минимизирует