Теория информации и надежная связь - Галлагер Р.
Скачать (прямая ссылка):
<1 —Ф
8iVN
W
2 А (хт, п)
1
33
4
2 ^ (хт, п)
п= 1
(4)
631
где Ф является функцией распределения нормированной гауссовской случайной величины, а А, — максимальное значение по хт,п третьего абсолютного центрального момента I (хт,п; уп), разделенного на А (хт,п). Так как буквы хтгП выбираются из конечного алфавита, то можно рассматривать X как фиксированную положительную постоянную, не зависящую от хт. По той же самой причине можно определить А как min A (k) и А как max A (k).
Так как по предположению \n[P(j\k)/a(j)] не зависит от j при каждом k, то Л>0 и
О СА<А(х
т,п) А <^ оо при всех Хт'П-
Используя (5) для того, чтобы ограничить сверху (4), получаем
К
Рг [/ (хт; у) > nc + Yn j х„
1 —ф
1 —ф
У NA
бх>0;
бх.
у A j
33 %
+---------=; б!<о.
4 VNA
(5)
(6)
Пусть теперь R=C + б/~1/N и выберем бх= б—N и пусть число кодовых слов
равно М= Г • Рассмотрим R, б и М как функции N при фиксированном б.
Для любого заданного б > 0 выберем N достаточно большим, так, чтобы > >0. Подставляя (6) в (5.8.66) и (5.8.65) и (5.8.66) в (5.8.62) (сг = &J~\/N) , имеем
1-
Ре > Ф
1— Ф
+ ехр N
С
iV_1/i\ + ii / ^
Si
V A
%
r—
У NA
У N
6-N-4*\ ii 4
-C-
V A
У NA
Vn ..
— exp [—N'14
Поэтому для любого e > 0 и достаточно большого N получим
б
Ре > Ф
У А
— е, 6>0.
С помощью тех же рассуждений для любого б < 0 получим
б
Ре > Ф
у А
При 6 = 0 ЭТО СВОДИТСЯ К Ре > 1 Ii'—Б.
5.37. (а) Если передатчик использует различные коды для каждого из А начальных состояний канала, то каждое сообщение т будет сопоставлено с А раз-
личными кодовыми словами, допустим,
'т,1>
Пусть хт =
¦=(xm,i....хт А) образует множество этих А кодовых слов; рассмотрим ансамбль
кодов, в котором каждое хт выбирается независимо с распределением вероятностей
Q(xm)= П * = 1
Qi (хт, г)-
(1)
Другими словами, кодовые слова для различных начальных состояний выбираются независимо и для каждого состояния может быть использовано распределение, отличное от других. Предположим теперь, что А начальных состояний яв-
632
ляются равновероятными. Тогда вероятность приема последовательности у при условии, что па кодер поступило сообщение т, равна
А 1
Р (У ! хт) ~ 2 л Р N (У I х™> г"’ so— 0- (2)
/ — 1 л
С математической точки зрения Р(у|х) определяет канал, a Q(xm) — ансамбль независимых одинаково распределенных кодопых слов для этого канала. Поэтому теорема 5.6.1 может быть применена, что дает
(3)
(М—i)p2 |2<Э(Х)Р(у I xj^o+pjj'+p.
Используя (1) и (2), получаем
1/(1 + Р)| 1+Р
_ А
Ре, т < (М-1)Р2 П Qi(Xi)
х i — 1
2 ~JpN^ \xi’ so= /)
L/= i
Используя неравенство задача 4.15(e), можно перенести знак суммирования по / влево, поставив его перед знаком суммы по х и затем произвести суммирование по Xi при всех i ф /; в результате получим
А
Ре,т <(М- 1)р2 ! 2
1/=1
1/(1+р>) 1 + р
Умножая и деля сумму по / на А и рассматривая 1 1А как распределение вероятности на /, можно использовать результат задачи 4.15(г), чтобы получить
ре,т < (Л1— 1)РЛР-1 2 2(2 Qi(*j)Pn(у1х;> 5о=/)1/(1+р)}1 + р-
/= 1 у I х^.
Выбирая Qj(xj) так, чтобы минимизировать правую часть при каждом /', и ум ножая границу на 4, чтобы получить равномерную границу, для Ре,т Для неко торого кода будем иметь
Ре,т < 4 (/И — 1)Р лр— 1 X X 2 min 2 (2 Qj(xj)P(y\*)> s0 = /)1Ai+P)ji + P.
/= 1 Q.(x.) у x.
Можно, наконец, сумму по/ограничить сверху максимальным слагаемым, умноженным на А, и заметить, что для каждого начального состояния вероятность ошибки не может быть больше, чем умноженное на А среднее значение. Это приводит к выражению (5.9.5) с переставленными min и max.
(б) Если на приемнике известно состояние, то можно применить теорему
5.6.1 непосредственно для любого заданного начального состояния s0; в результате получим