Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 25

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 19 20 21 22 23 24 < 25 > 26 27 28 29 30 31 .. 355 >> Следующая


— Н (X | Y) является неравенство

Я(Х)>Я(Х|Г). (2.3.9)

Знак равенства имеет место тогда и только тогда, когда X и Y статистически независимы. Таким образом, наложение любого условия на

ансамбль может только привести к уменьшению энтропии ансамбля. Важно отметить, что (2.3.9) включает усреднение по обоим ансамблям X и Y. Значение выражения

— ЪР(х\у) \ogP(x\y)

может быть как больше, так и меньше Я (X) (см. задачу 2.16).

40
Применяя неравенство (2.3.9) к каждому слагаемому равенства (2.2.30) и подставляя Un вместо X, a Ult ..., f/„-i вместо Y, будем иметь

Hiu,.....t/*)< 2 H(Un). (2.3.10)

Л=1

Знак равенства будет тогда и только тогда, когда ансамбли статистически независимы.

Теорема 2.3.3*. Пусть XYZ — дискретный совместный ансамбль. Тогда

I(X]Y\Z)^0. (2.3.11)

Это выражение равно нулю тогда и только тогда, когда при каждом заданном г ансамбли X и Y статистически независимы, т. е., когда

Р (х, у I z) = Р (х | г)Р {у | z) (2.3.12)

для каждого элемента совместного выборочного пространства, для которого Р (г) > 0.

Доказательство. Доказательство этой теоремы повторяет доказательство теоремы 2.3.2, если все вероятности заменить на условные при заданном г. |

Из неравенства (2.3.11) и равенства (2.2.26) следует, что

Н (X\Z) > Н (X\ZY). (2.3.13)

Знак равенства будет тогда и только тогда, когда справедливо (2.3.12).

Случай, когда I (X; Y\Z) = 0, имеет несколько интересных интерпретаций. Можно представить себе, что в этом случае имеется пара каналов, соединенных последовательно, как показано на рис. 2.3.2. Ансамбль X представляет собой вход первого канала; ансамбль Z представляет собой как выход первого канала, так и вход второго канала и ансамбль Y является выходом второго канала. Предположим, что выход второго канала статистически зависит только от входа второго канала, т. е., что

Р (У \z) — Р (У \г>х) Для всех х> У>г при Р (г, х) > 0. (2.3.14)

Умножая обе стороны равенства на Р (х\ г), получаем равенство (2.3.12) так, что

/ (X; У | Z) = 0 . (2.3.15)*

Для такой пары последовательных каналов разумно ожидать, что средняя взаимная информация между X и Y будет не больше, чем информация, проходящая через каждый отдельный канал. Покажем, что это справедливо на самом деле. Из равенства (2.2.29) получаем следующие равенства:

I (X; YZ) = / (X; Y) + / (X; Z\Y) = (2.3.16)*

= / (X; Z) + / (X; Y | Z). (2.3.17)*

41
Приравнивая правые части и используя (2.3.15), будем иметь

I (X; Z) = I (X; Y) + I (X; Z\Y). (2.3.18)*

Из (2.3.11) следует, что I (X; Z|]F) ^ 0, и, таким образом, равенство

(2.3.15) означает, что

/ (X; Z) > / (X; Y). (2.3.19а)*

Принимая во внимание симметрию равенства (2.3.12) относительно

X и Y, получаем также, что

I (Y) Z) > I (X; Y). информацию в неравенстве (2.3.19а) через

Выражая находим, что

Я (X) — Я (X | Z) > Я (X) — Я (X | Y), Я (X|Z) < Я (Х|У).

Средняя

(2.3.196)*

энтропии,

(2.3.20)

Рис. 2.3.2. Последовательное соединение каналов.

неопределенность Я (X | Z) относительно входа канала при заданном выходе называется неопределенностью для канала и, таким образом, неравенства (2.3.20) дают согласующийся с интуицией результат, что эта неопределенность для канала никогда не может уменьшаться при движении от входа по последовательно соединенным каналам.

Неравенства (2.3.19) и (2.3.20) становятся до некоторой степени более удивительными, если интерпретировать второй блок на рис. 2.3.2 как устройство обработки данных, обрабатывающее выход первого блока, который в данном случае является каналом. Независимо от того, является ли эта обработка ансамбля Z детерминированной или вероятностной, она не может уменьшить неопределенность X или увеличить взаимную информацию о X. Это не означает, что никогда не следует обрабатывать выход канала и фактически обработка обычно необходима для того, чтобы как-либо использовать выход канала. Вместе с тем это означает, что среднюю взаимную информацию следует истолковывать как среднюю меру находящихся в распоряжении статистических данных, а не в терминах полезности представления. Этот результат будет обсужден более подробно в гл. 4.

2.4. ВЕРОЯТНОСТЬ И ВЗАИМНАЯ ИНФОРМАЦИЯ ДЛЯ НЕПРЕРЫВНЫХ АНСАМБЛЕЙ

Рассмотрим ансамбль X, определяющий случайную величину х, принимающую значения из выборочного пространства, образованного множеством действительных чисел. Вероятностная мера на этом пространстве проще всего задается с помощью функции распределения
Предыдущая << 1 .. 19 20 21 22 23 24 < 25 > 26 27 28 29 30 31 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed