Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 71

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 65 66 67 68 69 70 < 71 > 72 73 74 75 76 77 .. 355 >> Следующая


Ре,т= 2 pw(y|xm). (5.2.6)

уеу^

Тогда общая вероятность ошибочного декодирования, в случае, когда априорные вероятности сообщений имеют вероятности Рг (т),

137
равна

м

Ре= % Рг (т)Ре<т.

т= 1

(5.2.7)

Для примера рассмотрим код, представленный на рис. 5.2.1. В нем есть два кодовых слова Х!=(0,0,0) и ха = (1,1,1). Правило декодирования (которое, как можно заметить, является правилом максимального правдоподобия для ДСК) состоит в том, чтобы декодировать каждую из последовательностей (0,0,0), (0,0,1), (0,1,1) и (1,0,0) в сообщение 1 и другие последовательности в сообщение 2. Следовательно, Y{ совпадает с У2 и является множеством последовательностей (0,1,1), (1,0,1) (1,1,0) и (1,1,1)- Для ДСК, изображенного на рис 5.2.1, .Р3[(0,1,1) | (0,0,0)] = (1—е)е2, например, и подобное вычисление /’з (у | хх) для других у из Y{ дает Ре 1==3(1— е)е2+е3.

Соотношения (5.2.5) и (5.2.7) по виду довольно безобидные.

Однако, если алфавит на выходе канала состоит из J букв, то в этих суммах оказываются JN слагаемых. Для умеренных длин блоков, таких, как N = 50, вычисления сумм выходят далеко за возможности современных вычислительных машин. Даже если такие вычисления могли бы быть выполнены, они дали бы лишь небольшое проникновение в задачу выбора подходящей длины блока для кода или подходящего множества кодовых слов. Развиваемый здесь подход направлен скорее не на то, чтобы вычислить Ре, а чтобы найти простые верхние границы для достижимой вероятности ошибки. Идя по этому пути, мы не только докажем теорему кодирования, но также получим значительное понимание задачи выбора подходящих параметров кодирования. Начнем с рассмотрения вероятности ошибки для множества из двух кодовых слов и затем обобщим результат на произвольно большое множество кодовых слов.

5.3. ВЕРОЯТНОСТЬ ОШИБКИ ДЛЯ ДВУХ кодовых СЛОВ

Пусть хх и х2 — два кодовых слова длины N и предположим, что используется декодирование по максимуму правдоподобия, т. е. декодируется сообщение 1, если PN (у | хг) > PN (у | х2); в противном случае декодируется сообщение 2. Согласно (5.2.6) вероятность ошибки при посылке сообщения 1 равна

т

Канал(ДСК)

1/Z

Рис. 5.2.1. Код и правило декодирования для N=3, М—2.

138

Ре, 1= 2 Pn(У | Xi).

y6Y?
При любом у ? Y{ можно оценить сверху PN (у | хх) следующим образом:

Рм(у\х1ХРы(у\х-1У-$Рм{у\х2У> s —любое, 0<s< 1. (5.3.1)

Граница (5.3.1) следует из того, что PN (у | х2) ^ PN (у | хх) при у ? Y\ и, следовательно, PN (у | x2)s ^ РЛг (у | xx)s. Граница (5.3.1) справедлива также при s ^ 1, но это здесь не будет использовано. Подставляя (5.3.1) в (5.2.6) и строя границу сверху с помощью суммирования по всем у, будем иметь

1 < 2 Pn (У I Хх)1-5 PN (у 1 x2)s, s—любое, 0<s<l. (5.3.2)

у

Оценивая Ре,ъ аналогичным образом, получаем

2 ^ 2 Pn (у | х2)1~г Pn (у | х1)г, г—любое, 0< г < 1. (5.3.3)

у

Если подставить 1—s вместо г в (5.3.3), то можно заметить, что мы получили одинаковые границы для Ре_ 2 и Ре х. Это не приводит к потере общности, так как s все еще остается произвольным, 0 -<

< s < 1:

Pe,m<2^(y|xi)1-sPw(y|x2)s, m = 1, 2; 0<s< Г. (5.3.4)

у

Как будет видно из дальнейшего, если соответствующим образом выбрать s, то граница (5.3.4) будет удивительно точной. Для канала без памяти (5.3.4) можно упростить и привести к виду:

Ре,т<22---2 П Р(уп\хип)1-'Р(Уп\х2,пУ. (5.3.5)

Hi У2 УN п— 1

Расписывая произведение, получаем

Pe.m<I1P(yi\xi,i)l-$P(yi\xitl)s'^P(ij2\x1:2y-sP(y2 |,i'2i2)sX .. .

Ух У г

•¦¦'xliP{yN\xl мУ~5Р(Ум\х2 N)s,

,JN

Pe,m< П 'hP(yn\xl,ny-sP(yn\x2Js, ГП = 1,2. (5.3.6)

n = 1 yn

Сумма по yn в (5.3.6) имеет фундаментальное значение для последующего изложения и ей будет дана дополнительная интерпретация

в следующем параграфе. Обозначим ее через

ёп (s) = 2 Р (Уп I *i,n)I-s Р (Уп I *2, Js- (5-3.7)

Уп

При этом (5.3.6) можно переписать в виде

Pe,m<Tlgn(s), m==l,2; 0<s<l. (5.3.8)

л= l

139
Функция gn (s) изображена для ряда каналов на рис. 5.3.1. Во всех случаях х1п обозначает вход канала О, а х2 п — вход канала 1. Для каналов, подобных тому, который представлен на рис. 5.3.1, б и в котором некоторые переходные вероятности равны нулю, gn (0)

/-?

/-?

/-ff

Предыдущая << 1 .. 65 66 67 68 69 70 < 71 > 72 73 74 75 76 77 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed