Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 260

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 254 255 256 257 258 259 < 260 > 261 262 263 264 265 266 .. 355 >> Следующая


5.15. В предыдущей задаче было отмечено, что вероятность того, что не произошло правильное декодирование (т. е. что была либо ошибка, либо стирание) ограничена сверху неравенством Ре < Ру + Р2; если положить Т = R, то Ре < 2 ехр(—Na), где

j-stf-ln [2 Q (*) <в (Л8 Р (Л А)1-*]} • (1)

Заметим, что так как а > 0 при R < С, то это дает очень простое доказательство теоремы кодирования (хотя с ненаилучшей экспонентой ошибки).

(а) Заменить s на р/(1 + р) и показать, что в двоичном симметричном канале (1) сводится к

1

a = max—— [E0(p) — pR].

Р>о 1 + р

Сравнить а с Er (R) графическим методом подобно тому, как это было сделано на рис. 5.6.3.

543

а = шах

0<s<l
(б) Используя неравенство Гёльдера [см. задачу 4.15. (б)], для суммы no j в (1), показать, что в общем ДКБП

1Е0 (Р) — РЯ]-

а > max —— р>о 1 + Р

(в) Положив s = р в (1) и использовав неравенство Гёльдера для

2<2(/г)Я(Л й)1/(1 + р)> к

показать, что а < Ет (R).

5.16. Совместная теорема кодирования для источника и канала.

(а) Пусть Ядг(у|х) будут переходными вероятностями для последовательностей длины N в дискретном канале; рассмотрим ансамбль кодов, в котором М кодовых слов выбраны независимо, каждое с распределением вероятностей QN(\). Пусть сообщения кодируются в эти кодовые слова и имеют распределение вероятностей qm, 1 < т < М; рассмотрим декодер по максимуму апостериорной вероятности, который при заданном у выбирает т, для которого 9тРдг(у|хт) максимально. Пусть

Ре — Qm Ре, i

будет средней по этому ансамблю сообщений и кодов вероятностью ошибки. Видоизменяя доказательство теоремы 5. 6. 1, там где это необходимо, показать, что

м

т = L

j /(1+р)

tn

1+р

2 2 ^.v (х) Pn (у | х)1 /(1+р)

У

1 + р

(1)

(б) Пусть канал является каналом без памяти с переходными вероятностями P(j\k), пусть буквы кодовых слов выбраны независимо с распределением вероятностей Q(k) и пусть сообщениями являются последовательности длины L дискретного источника без памяти U с распределением вероятности я(г), 0 < г < А — 1. Показать, что (1) равносильно неравенству

Ре <¦ ехр {— NE0(p, Q) + L^(p)} ?S(P) = (1+P) In

(2)

я(01/(1 + р)

г = 0

(в) Показать, что Es(0) = 0,

3?s(p)

= H(U) в натуральных едини-

dp |р=о

цах и что ?'s(p) — строго возрастающая функция р (если я(<) < 1 для всех г).

(г) Пусть К = L/N и пусть N оо при фиксированном К. Показать, что Ре -у 0, если KH(U) < С при соответствующем выборе Q(k).

(д) Показать, что граница (2) равносильна (5.6.13) в случае, когда я(г) = = 1/Л при 0 < г < А — 1, и равносильна положительной части утверждения теоремы кодирования для источника 3.1.1 (за исключением экспоненциальной сходимости здесь) в случае, когда канал является каналом без шума. Указанные выше результаты были получены автором и впервые использованы в 1964 г.

5.17. Рассмотрим сумму каналов (как в задаче 4.18), соответствующую множеству из п ДКБП. Пусть Е0 *(р) = шах Е0 г-(р, Q) для г'-ro канала из множест-

Q

ва ДКБП и пусть ?“0(Р) = ma* ?o(P> Q) Для суммы каналов. Пусть q; — вероят-

Q

ность использования г'-го канала, так что на этом распределении вероятности 544
достигается максимум ^(Р)" и пусть Qi(k) является вероятностью использования входа к в i-м каиал# при условии, что используется /-й каиал. Показать, что

ехр

Е0(Р)

ЯГ-

П

2 ехР г=1

Е0. i (р)

]

Применить ваш результат для нахождения Е0(р) канала, изображенного на рисунке.

г ¦

5.18. Следующее доказательство теоремы кодирования не позволяет получить точную границу вероятности ошибки, найденной в § 5.6, но выявляет с большей ясностью значение пропускной способности канала. Пусть P(j\k) обозначают переходные вероятности в ДКБП, пусть Q(k) — распределение на входе, на котором достигается пропускная способность, и пусть
Предыдущая << 1 .. 254 255 256 257 258 259 < 260 > 261 262 263 264 265 266 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed