Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 171

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 165 166 167 168 169 170 < 171 > 172 173 174 175 176 177 .. 355 >> Следующая


Аддитивный гауссов шум и ограничение на энергию входного сигнала

Рассматривая второй пример, предположим, что в канале с аддитивным шумом задано ограничение на энергию на входе

(7.4.6)

Пусть шум имеет плотность pz (г) с нулевым средним и дисперсией

о2. Предположение г = 0 не приводит к потере общности, так как можно всегда добиться его выполнения, сдвигая нуль на осях z и у. В дальнейшем мы примем, что pz (х) — плотность гауссовского распределения, однако в течение некоторого времени будем считать ее произвольной. Среднеквадратическое значение выхода канала ограничено следующим образом:

?* = (jc + z)* = jc*-fz*<ff + a2. (7.4.7)

Найдем теперь максимум Н (Y) при ограничении на у2, а затем попытаемся найти соответствующее входное распределение, приводящее

12 Зак. 210 353
к плотности pY (у), на которой достигается максимум. Можно опять использовать методы вариационного исчисления, распространяя предел в (7.4.3) до оо и добавляя второе ограничение, 7 J у*р (у) dy. Это приводит к условиям, аналогичным (7.4.5),

logр (у) + loge

УУ

О для всех у.

Решение этого уравнения, удовлетворяющее ограничению (7.4.7), имеет вид

Р(У)

о2)

ехр

(7.4.8)

Теорема 7.4.1. Максимальное значение энтропии

ОО

H(Y) = — j Р (у) log р (у) dy,

— 00

взятое по всем плотностям вероятностей, удовлетворяющим ограничению

J y%p(y)dy = A,

(7.4.9)

достигается только на плотности гауссовского распределения

Ф а (У)

1

ехр

и равно

1/2пА Н(У) = Ч9 log (2яеЛ).

11



(7.4.10)

(7.4.11)

Доказательство, Эту теорему можно было бы доказать, развивая соображения гл. 4 о свойствах выпуклых функций и доказывая, что решение (7.4.8)'вариационного уравнения дает единственный максимум. Однако следующее доказательство в некотором смысле проще. Пусть р (у) — произвольная плотность вероятности, удовлетворяющая (7.4.9), и пусть фл (у) — плотность гауссовского распределения. Тогда

jp(-/)l0giw dy-]p(y)

log У2пА -f — log е 2/4

dy

log У 2лА + — loge =

V2 log (2яеЛ).

(7.4.12)

Применяя (7.4.12), получаем

Н (У)—V2 log (2яеЛ) = |р {у) log -^Дуу- dy <

<loge J р(у)

Фл (У)

Р(У)

Р{У)

dy^O,
где было использовано неравенство log z ^ (г — 1) log е. Равенство здесь достигается тогда и только тогда, когда <рА (у)/р (у) = 1 для всех у. 1

Поскольку Я (Y) возрастает с Л, то ясно, что изменение ограничения в теореме на Jу*р (у) dy^A не может изменить результат. Для получения пропускной способности остается найти плотность вероятности входного сигнала, приводящую к плотности гауссовского распределения на выходе. Один из печальных фактов нашей жизни состоит в том, что если сумма двух независимых случайных величин является гауссовской случайной величиной, то каждая из случайных величин должна быть гауссовской*). Однако, к счастью, наибольший интерес представляет ситуация, когда аддитивный шум гауссов. В этом случае максимум Н (Y) и пропускная способность достигаются на гауссовском я. Для этого случая выражение / (X; Y) уже было вычислено в (2.4.36). Таким образом, доказана следующая теорема.

Теорема 7.4.2. Пусть задан дискретный по времени канал без памяти с аддитивным гауссовым шумом, дисперсия которого ст2, и пусть ограничение на входе имеет вид х2^$. Тогда пропускная способность равна

C = V*log(l + -^-). (7.4.13)

Вычисление пропускной способности канала с негауссовым аддитивным шумом — задача утомительная и неблагодарная. Ограничимся здесь границами для пропускной способности, даваемыми следующей теоремой; эта теорема фактически показывает, что при заданной дисперсии шума гауссов шум является наихудшим с точки зрения пропускной способности аддитивным шумом.

Теорема 7.4.3. Пусть задан дискретный по времени канал без памяти с аддитивным шумом (дисперсия которого ст2) и с ограничением на входе х2 ^ Тогда

Vzlogl^elg’ + CT2)] — #(Z)>C>-i- log ^1 -f (7.4.14)

Доказательство. Левая часть неравенства следует из соотношения / (X; Y) = Н (Y) — Я (Z) и того, что выражение V2 log [2яе (& + + о2)] является верхней границей Я (Y). Для того чтобы установить справедливость правой части неравенства, положим

1 ( X2 \

Рх (*) = —— ехр ——

V2n4g V 2 S)

*) Г. Крамер. Случайные величины и распределения вероятностей. М., ИЛ, 1937.

12* 355
и покажем, что получающаяся средняя взаимная информация удовлетворяет неравенству
Предыдущая << 1 .. 165 166 167 168 169 170 < 171 > 172 173 174 175 176 177 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed