Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 27

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 21 22 23 24 25 26 < 27 > 28 29 30 31 32 33 .. 355 >> Следующая


Ix-y{Xx, j/i) = log (2.4.13)

Рх (хх) Py (Ух)

В принятых сокращенных обозначениях это равенство имеет вид

I(x; у)-= log-?^.g> (2.4.14)

Р (X) Р (у)

44
Иепользуя равенства (2.4.11) и (2.4.12), это равенство можно представить как

= log ?Ш>. . (2.4.15)

Р (X) р (у)

Сходство между определениями информации, предложенными здесь и для дискретных ансамблей, удобно для запоминания, но не дает реального основания для введения этого определения. Для того чтобы дать такое обоснование, проквантуем ось л: на интервалы длины А, а ось у — на интервалы длины б. Получаемые в результате квантованные случайные величины образуют дискретный ансамбль и взаимная информация между некоторым х-интервалом (хг — А, хг) и некоторым «/-интервалом (уг — б, уг) задается равенством

]0g Рг 1*1—А <*<*!, У1—8 <у <yi 1 (2 4 16)

Рг [хг — Л < X < хг] Рг [У! — б < у < г/J Деля числитель и знаменатель на Дб, получаем

•^тРг [хг—Д< х < xlt У1 — 6<У <У1]

log , t -----------------------------------------. (2.4.17)

Y) Pr [*i—Д<* < Xj] Pr [t/i — S < I/ < yi]

Переходя к пределу при А и б, стремящимся к нулю, получаем, что это выражение переходит в определенное выше выражение для Iх-, y (хъ Уг)-

Так же как и в случае дискретных ансамблей, взаимная информация является случайной величиной; ее среднее значение равно

оо оо

I(X;Y)= $ $ р(х, y)log-ES?'«l-dxdy. (2.4.18)

-оо -оо Р (х) Р (У)

Переходя к чуть более общей ситуации, предположим, что выборочное пространство X является множеством л-мерных действительных векторов, а выборочное пространство Y — множеством m-мерных действительных векторов. Если рху (хъ z/i) представляет собой совместную плотность вероятности XY на совместном (п + т)-мерном выборочном пространстве, а рх (*i) и ру (уг) являются плотностями вероятностей на пространстве X и Y соответственно, то Iх- Y (ху, уг) снова определяется равенством (2.4.13) и снова может быть представлена как предел при все более и более тонком квантовании каждого измерения совместного пространства. Средняя взаимная информация I (Х\ Y) задается равенством (2.4.18), где теперь интегрирование распространяется по совместному (п + т)-мерному пространству.

Пусть теперь х, у кг—случайные величины с действительными конечномерными выборочными пространствами и пусть р (х, у, z)—их совместная плотность вероятности. Условная взаимная информация между х и у при заданном z определяется как

I(x;y\z) = log /W'2* (2.4.19)

p(x\z) р(у\г)

45
Эту величину, так же как и I (х\ у), можно представить в виде предела при все более и более тонком квантовании по осям х, у и z. Средняя условная взаимная информация задается равенством

I(X;Y\Z)=^p(x, у, z) log ~ESxjJd?] dx dy dz. (2.4.20) J p(x\z)p(y\z)

С помощью этих определений немедленно получаем все теоремы и равенства, отмеченные звездочками в § 2.2 и 2.3, если использовать приведенные там доказательства и выводы.

При рассмотрении дискретных ансамблей было ясно, что средняя взаимная информация не зависит от обозначений, принятых для элементов отдельных выборочных пространств. Эта инвариантность по отношению к обозначениям свойственна также средней взаимной информации в случае непрерывных ансамблей, хотя это менее очевидно. Чтобы показать это, рассмотрим совместный ансамбль XZ со случайными величинами х и z и пусть у будет некоторым преобразованием 2, т. е. у = f(z). Этот случай можно представить графически (см. рис. 2.3.2), где х — вход канала, 2 — выход канала и у преобразование 2. Так же

как и ранее*), I (X, Y\ Z) = 0, и, следовательно, подобно (2.3.19)

/ (X; Z) > / (X; Y). (2.4.21)

Предположим, далее, что у является обратимым преобразованием z так, что z — f~x (у). Теперь можно рассматривать у как выход канала, а 2 как преобразованный выход, получая при этом

1 (X; Y) ^ / (X; Z). (2.4.22)

Объединяя эти неравенства, получаем / (X; Y) = I (X; Z) и, следовательно, средняя взаимная информация между двумя ансамблями инвариантна к любому обратимому преобразованию одной из случайных величин. В точности такое же доказательство можно, конечно, применить независимо к любому обратимому преобразованию другой случайной величины.

Рассмотрим теперь вопрос о том, можно ли дать осмысленное определение собственной информации для непрерывного ансамбля. Пусть X будет ансамблем, определяющим действительную случайную величину х с конечной плотностью вероятности р (х). Пусть ось х квантуется на интервалы длины А так, что собственная информация интервала (хг — А, хг) равна
Предыдущая << 1 .. 21 22 23 24 25 26 < 27 > 28 29 30 31 32 33 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed