Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 23

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 17 18 19 20 21 22 < 23 > 24 25 26 27 28 29 .. 355 >> Следующая


Н(Х)=% Px(ah) log—(2.2.14)

*=i px(ah)

= — 'ZP(x)\ogP(x). (2.2.15)

X

Имеется некоторое дополнительное основание для использования здесь символа Н, кроме того, что в теории информации это обозначение используется почти всегда. Энтропия ансамбля тесно связана с энтропией, используемой в статистической термодинамике, и фактически является таковой (с точностью до аддитивной постоянной) при интерпретации множества ah как множества элементов фазового пространст-

ва, имеющих бесконечно малые равные объемы*1. К счастью, энтропия в теории информации является понятием значительно более простым, чем в термодинамике.

Условная собственная информация также является случайной величиной на совместном ансамбле XY и имеет среднее значение, задаваемое равенством

H(X\Y) = 2P(x,y)I(x\y)=-2P(x,y)logP(x\y). (2.2.16)

х.У х,у

Ее можно интерпретировать как среднюю информацию (по х и у), которая требуется для того, чтобы определить х, если известно у.

Если равенство (2.2.13) усреднить по ансамблю XY, то можно найти, что средняя взаимная информация между х и у равна разности между энтропией X и условной энтропией X при заданном Y

I (X; Y) = Н (X) — Н (X\Y). (2.2.17)

Это равенство показывает, что / (X; Y) можно интерпретировать как среднюю неопределенность X, которая снимается после-наблюдения исхода ансамбля Y; Н (X | Y) представляет собой среднюю оставшуюся

¦неопределенность X после наблюдения. ....

' МожнсГ'пблучить еще некоторое соотношение между собственной и взаимной информацией, если рассмотреть совместный ансамбль XY как единый ансамбль, элементами которого являются^ пары х, у сов-

*'> См., например, R. С. Tolman, The Principles of Statistical Mechanics, стр. 168 (величина H у Толмана является отрицательной энтропией).

36
местного выборочного пространства. Собственная информация, содержащаяся в паре х, у, равна --

I (х, У) = —log Р (х, у). (2.2.18)

Так как Р (х, у) — Р (х)Р (у j х) = Р (у)Р (х\у), то получаем

I (х,у) = I (х) + I (у\х) = /(*/) + / (х\у). (2.2.19)

Взаимная информация может быть также выражена через I (х, у) следующим образом:

I (х; у) = I (х) + I (у) - I (х, у). (2.2.20)

Усредняя эти выражения по совместному ансамблю ХУ, находим

Н (XY) = И (X) + Я (У | X) = Я (Y) + Я (X | У), (2.2.21) I (X; У) = Я (X) + Я (У) — Я (ХУ). (2.2.22)

Пусть теперь ии ..., uN будут исходами совместного ансамбля Ux ... UN. Условная взаимная информация между щ и и2 при условии, что задано и3, определяется в соответствии с (2.2.1) как

/(%;«2К) = log^ii^= (2.2.23)

Р (“1 I “з)

= I (iii ] «з) ^ (% I ^2> ^з)- (2.2.24)

Для средней условной взаимной информации теперь получаем

/ № и,\и,)=222р («ь-.) i«g = (2'2'25)

и, и, «, И (“1' “з)

= Я (?/а I г/3) ¦- я I t/2 ?/3). (2.2.26)

Мы могли бы здесь получить неограниченное число соотношений между условной и безусловной взаимной и собственной информациями, используя совместные исходы вместо отдельных исходов в этих выражениях. Одно из соотношений, представляющее определенный интерес, состоит в том, что взаимная информация о некотором частном исходе иъ содержащаяся в некоторой частной паре исходов и2и3, равна информации о «!, содержащейся в и2, сложенной с информацией о иъ содержащейся в и3 при условии, что задан и2. Чтобы показать это, рассмотрим

I (иг, «а) +1 (ий «з I «2) = log +

Р(и i)

+ log = log _ 7 („i; „з)> (2.2.27)

P («11 “2) P (“1)

Второе соотношение, следующее из цепной формулы для вероятности

Р (и j, и2, ..., uN)=--P(u^)P(u2\ulf.. P(uN\uu ..., Un-i),

имеет вид

I (иъ щ, ..., uN) = / (их) + / (ыа I ui) + ... +I(uN |«i, ..., uN-i). (2.2.28)

37
Усредняя (2.2.27) и (2.2.28) по совместному ансамблю, получаем

I (Ui; U, Ua) = I (U,; U,) +1 (UL; U, | U2), (2.2.29)*>

H(Uly и2, ..., U N) — Н (Ui) -f Н (U21 Ux) + ... +

+ H{UN\U1 ... UN-i). (2.2.30)

Пример 2.3. Рассмотрим опять канал, изображенный на рис. 2.2.1, но будем использовать его три раза подряд, так что входом будет последовательность ххх2х3 трех двоичных символов, а выходом —¦ последовательность УхУгУз трех двоичных символов. Предположим также, что входная последовательность строится так, что один и тот же символ повторяется трижды: последовательность ахахах используется с вероятностью 1/2, и последовательность а.2ага2 с вероятностью 1/2. Будем считать, наконец, что канал действует независимо на каждый Рис. 2.2.1. Двоичный сиы- из символов, другими словами, что метричный канал.
Предыдущая << 1 .. 17 18 19 20 21 22 < 23 > 24 25 26 27 28 29 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed