Научная литература
booksshare.net -> Добавить материал -> Физика -> Айзеншиц Р. -> "Статистическая теория необратимых процессов" -> 29

Статистическая теория необратимых процессов - Айзеншиц Р.

Айзеншиц Р. Статистическая теория необратимых процессов — М.: Иностранной литературы, 1963. — 127 c.
Скачать (прямая ссылка): statisticteoriyaneobratimihprocessov1963.djvu
Предыдущая << 1 .. 23 24 25 26 27 28 < 29 > 30 31 32 33 34 35 .. 38 >> Следующая


99

Многомерные функции распределения двух и, возможно, большего числа переменных определяются аналогичным образом. Они являются нормированными, если

f f fix, y)dxdy=\. (9.2)

Многомерные функции можно использовать для определения приведенных функций распределения, как, например,

g(x) = [ f(x, y)dy, h(y) = ff(x,y)dx. (9.3)

Если / нормирована, то g и h автоматически также будут нормированы. В общем случае одновременное значение g(x) и h(y) дает меньше сведений, чем знание f(x, у). Другими словами, функция f(x, у) обычно неоднозначно определяется функциями g(x) и А (у).

Условные функции распределения определяются как распределения по переменным одного ряда при задании определенных значений переменным другого ряда. В случае двух переменных распределение по х, условное по отношению к у, определится как

^(*^) = ^??1- (9.4)

Относительно переменных X и у говорят, что они статистически независимы, если двумерную функцию распределения можно представить в виде произведения

/(X, У) = g (X) h (у). (9.5)

В этом случае условная вероятность любой из переменных не зависит от значений остальных. Определение статистической независимости легко распространяется на любое произвольное число переменных. Переменные, которые не являются статистически независимыми, кратко характеризуются как статистически коррелированные1).

1 Следует различать понятия независимости и некоррелированности случайных величин. Две независимые случайные величины всегда являются некоррелированными. Однако из некоррелированности случайных величин еще не вытекает их независимость. — Прим. ред.

7* 100

ГЛАВА III

Понятие статистической независимости является фундаментальным понятием в статистической физике. Переменные, представляющие такие объекты, между которыми нет никаких взаимодействий, должны быть статистически независимыми. Этот трюизм, однако, не является тривиальным, поскольку само существование других непредвиденных взаимодействий часто вводится путем статистических рассмотрений.

Среднее значение (математическое ожидание) некоторой переменной, ее степени или любой другой функции этой переменной определяется как среднее взвешенное по функции распределения ')

(X) = J xf(x)dx,

(хп) = f хп f (X) dx, (9.6)

(/»(*)> = f P(X) f (X) dx.

Математическое ожидание от случайной функции, вообще говоря, не совпадает с функцией от математического ожидания, т. е.

(PW) Ф P ({*))' (9-7)

Это неравенство легко проверить. Тем не менее в учебниках иногда приводятся доказательства, в которых различием между правой и левой частями (9.7) пренебрегают.

Удобной мерой дисперсии функции распределения является средний квадрат отклонения

<**>-(*)' = <(*-<*)>»> >0. (9.8)

или, вернее, его квадратный корень. К числу средних значений, вычисляемых с помощью функции распределения по двум переменным, принадлежат (лг), (у2), определение

') Формулы (9.6) относятся только к непрерывным случайным величинам с плотностью распределения вероятностей f(x). Математическое ожидание п-й степени случайной величины называется начальным моментом я-го порядка данной случайной величины.— Прим. ред. ВЕРОЯТНОСТЬ

101

которых очевидно. Выражение

4 =

(ху)-(х) (у)

(9.9)

[<(*-<-*»*> (С - OO)2)]1/г

(а иногда также числитель этого выражения) называется коэффициентом корреляции переменных X и у. Можно показать, что Равенство ^ = O является необходи-

мым, но не достаточным условием для статистической независимости двух переменныхНа практике, однако, можно полагать, что две переменные приближенно статистически независимы, если их коэффициент корреляции равен нулю.

Если переменные являются функциями времени, важно выяснить статистическую независимость одной и той же переменной в различные моменты времени или разных переменных в различные моменты времени. Удобным, хотя и не строгим, критерием является обращение в нуль среднего произведения переменных в различные моменты времени. Эти средние произведения поэтому носят название ав>покор реляционных функций или просто корреляционных функций2). Они играют большую роль в физической и нефизической статистике [см., например, уравнение (3.16)]. Аналогичным образом корреляционные функции определяются для переменных, являющихся функциями координат.

Рассмотрим теперь большое число переменных, причем будем предполагать, что они статистически независимы и их функции распределения вероятностей одинаковы. Обозначая эти переменные через X1, х2, ..., xN, а их обычные средние значения и средние квадраты отклонений соответственно через (л:) и (л;2) — (х)2, мы определим суммарную переменную посредством равенства

') Так как из равенства нулю коэффициента корреляции между двумя случайными величинами еще не следует их независимость. Однако для двух независимых случайных величин коэффициент корреляции равен нулю. Для линейно связанных случайных величин коэффициент корреляции равен -{-1 или —1.—Прим. ред.

2) Более строгое определение корреляционной функции см., например, дополнительную литературу [164, 166, 242, 249]).—Прим. ред.
Предыдущая << 1 .. 23 24 25 26 27 28 < 29 > 30 31 32 33 34 35 .. 38 >> Следующая
Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed