Научная литература
booksshare.net -> Добавить материал -> Математика -> Баврин И.И. -> "Теория вероятностей и математическая статистика" -> 31

Теория вероятностей и математическая статистика - Баврин И.И.

Баврин И.И. Теория вероятностей и математическая статистика — М.: Высшыя школа, 2005. — 160 c.
ISBN 5-06-005322-9
Скачать (прямая ссылка): teoriyaveroyatnostiimatstatistika2005.djvu
Предыдущая << 1 .. 25 26 27 28 29 30 < 31 > 32 33 34 35 36 37 .. 51 >> Следующая


dv

K

= - j COS (х + у) - J COS X + sin (х + J>)|j = = j sin X - J COS X + sin (x + -|j - sin X = (l - j)(cos X - sin x). Отсюда

K 2

ЦХу = \(l - j)J(x--?(cosx-jinx)rfx. Затем, интефируя по частям, найдем

_ 8я - тс2 - 16 ™ 16

Для определения коэффициента корреляции Гх,, предварительно найдем о,2 и о2. Имеем

о2 =M(X2)-M2(X),

о2 = M(Y2)-M2(Y),

Kr 2

М(Х2) = у J Jf2 (sin X + cosx)rfx,

о

к 2

M(Y2) = \\y2 (sinу + cosу)dy>

т.е. M(Xi) = M(Y2). Но

у J X2 (sin X + cos х) Лс = -у + у - 2

о

(два раза применяли операцию интегрирования по частям).

95 Следовательно,

Jt2 я 0 к2 Tt2 +Sir - 32

О} = OxOy =Y+ 2 -2-f6= 16 • Таким образом, коэффициент корреляции

_ Stc - тс2 - 16 ху к2 + 8к - 32 '

Теорема. Абсолютная величина корреляционного момента двух случайных величин не превосходит произведения их средних квадрати-ческих отклонений:

|ц».|<о*о, [ох = о(Х), Oy = O(Y)].

Доказательство. Введя в рассмотрение случайную величину 2J = OyX- ох Y, где ох = о(Х), Oy = o(Y), найдем ее дисперсию. Имеем

D(Z) = M[Z, - M(Z1)]2= М[оу(Х - M(X)) - ox(Y - M(Y))]1 =

= М[о}(Х2 - IXM(X) + M2(X)) - ox(Y2 - IYM(Y) + M2(Y)) -

- 2охоу(Х- M(X))(Y - M(Y))] = о}(М(Х2) - M1(X)) +

+ o2(M(Y2) - M2(Y)) - 2охауМ[(Х - M(X))(Y - M(Y))] =

= O2O2 + O2O2 - 2охOy[ixy = 2о2о2 - 2охоу\1ху > О

(любая дисперсия неотрицательна). Отсюда

I^xy < охоу.

Введя случайную величину Z2 = оуХ+ ах Y, аналогично найдем

Hxy > -охоу.

В результате имеем

- OxOy < \lxy < OxCy

или

InJsSoxOy. (3.16)

Определение 2. Случайные величины X и Y называются некоррелированными, если rxy = 0, и коррелированными, если гхуф 0.

Пример 1. Независимые случайные величины X и Yявляются некоррелированными, так как в силу соотношения (3.12) /Vy=O.

Пример 2. Пусть случайные величины X и К связаны линейной зависимостью Y=AX+В, А* 0. Найдем коэффициент корреляции. Имеем:

\ixy = M(XY) - M(X)M(Y) = M(AX2 + BX)- M(X)M(АХ + В) = = АМ(Х2) + BM(X) - AM2(X) - BM(X) = = А(М (X2)-M2(X)) = Ao2, о2 = D(Y) = D(AX + В) = D(AX) = A2D(X) = A2O2xt

96 откуда

ау = \А\ах.

Поэтому

Таким образом, коэффициент корреляции случайных величин, связанных линейной зависимостью, равен ±1 (точнее, Txy = 1, если Л>0 и Zyy = -I1 если Л<0).

Отметим некоторые свойства коэффициента корреляции.

Из примера 1 следует:

1) Если X и Y — независимые случайные величины, то коэффициент корреляции равен нулю.

Заметим, что обратное утверждение, вообще говоря, неверно. (Доказательство см. в работе [2].)

2) Абсолютная величина коэффициента корреляции не превосходит единицы:

КИ 1.

Действительно, разделив обе части неравенства (3.16) на произведение ахау, приходим к искомому неравенству.

3) Как видно из формулы (3.15) с учетом формулы (3.14), коэффициент корреляции характеризует относительную величину отклонения математического ожидания произведения M(XY) от произведения математических ожиданий M(X) M(Y) величин X и Y. Так как это отклонение имеет место только для зависимых величин, то можно сказать, что коэффициент корреляции характеризует тесноту зависимости между XuY.

3. Линейная корреляция. Этот вид корреляционной зависимости встречается довольно часто.

Определение. Корреляционная зависимость между случайными величинами X vi Y называется линейной корреляцией, если обе функции регрессии f(y) и g(x) являются линейными. В этом случае обе линии регрессии являются прямыми, их называют прямыми регрессии.

Выведем уравнения прямой регрессии Y на X, т. е. найдем коэффициент линейной функции g(x)=Ax+ В.

Обозначим M(X) = a, M(Y) = Ь, М[(Х - а)2] = a2, M[(Y - b)2] = а2. С использованием свойств МО (§§ 2.2; 2.6) находим:

M(Y) = M[g(X)] = M (АХ +В) = AM(X) + В,

т.е. Ь = Аа + В, откуда B= b-Aa.

Далее, с помощью тех же свойств математического ожидания имеем

M(XY) = M[Xg(X)\ = M (АХ2 + BX) = = АМ(Хг) + BM(X) = АМ(Х2) + (Ь-Аа)а,

7 - 4857

97 откуда

A = _Jby_

M(Xl)-O 2

или, согласно свойству 1 дисперсии (§§ 2.3; 2.6),

Полученный коэффициент называется коэффициентом регрессии У на X и обозначается через р{У/Х)\

р (Y/X) = ^-. (3.17)

OJE

Таким образом, уравнение прямой регрессии Y на X имеет вид

y=p(Y/X)(x-a) + b. (3.18)

Аналогично можно получить уравнение прямой регрессии X на У

х=р (X/Y)(y-b) + a, (3.19)

где

р (X/Y) = Ц- (3.20)

есть коэффициент регрессии X на Y.

Уравнения прямых регрессии можно записать в более симметричном виде, если воспользоваться коэффициентом корреляции. С учетом этого коэффициента имеем:

р(Y/X) = rxy%- P(X/Y) = rxy-J (3.21)

и поэтому уравнения прямых регрессии принимают вид:

у-Ь = гху^(х-а); х-а = гху^{у-Ь).

Из уравнений прямых регрессии видно, что обе эти прямые проходят через точку (а; Ь)\ угловые коэффициенты прямых регрессии равны соответственно (рис. 13):

СIy 1 CTy

Iga = гху — ; tg? = ^^.

Так как |rw|< 1, то |tga|<|tg?|. Это означает, что прямая регрессии Y на X имеет меньший наклон к оси абсцисс, чем прямая регрессии X на Y. Чем ближе IrjyI к единице, тем меньше угол между прямыми регрессии. Эти прямые сливаются тогда и только тогда, когда |л>.|=1.
Предыдущая << 1 .. 25 26 27 28 29 30 < 31 > 32 33 34 35 36 37 .. 51 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed