Теория информации и надежная связь - Галлагер Р.
Скачать (прямая ссылка):
Спектральная плотность
шума равна --------------. Отсюда следует, что
1=\ 0 (^
(в) Пусть s(0 — переданная функция и y(t) — сумма принятых функций
L
y(t) = Ls(t)+ 2 21 (t).
1 = 1
Мощность сигнала равна L2 S и спектральная плотность шума равна ^ —1- .
I 2
Следовательно,
C=L2S I 2 N0 (I) нат/с.
/ /=1
8.12. Непосредственный подход к этой задаче заключается в задании двух кодовых слов с помощью ортонормального разложения для L параллельных каналов, нахождении вероятности ошибки и затем оптимизации по кодовым словам. При более простом подходе следует заметить, что каждый из L каналов можно рассматривать как бесконечное множество гауссовских дискретных по времени каналов. Вероятность ошибки не может возрастать, если дисперсии шума в каждом множестве дискретных каналов уменьшаются до дисперсий для множества дискретных каналов с наименьшими дисперсиями. Это, однако, было бы равносильно использованию только лучшего множества каналов. Тогда из (8.2.24) получаем
= Ф
2 SLT min А'0 (I)
I
= Ф ( — У2СТ).
(1)
Далее рассмотрим ситуацию, в которой один и и тот же сигнал должен быть послан по всем каналам. Соображение задачи 8.11, что оптимальный приемник может умножать l-ю функцию на весовой множитель 1 !N0(l) и суммировать no I, остается все еще в силе. Это позволяет свести канал к одному каналу с белым гауссовым шумом; при этом все еще справедливо (1), где С теперь — пропускная способность канала задачи 8.И.(б). Аналогично (1) остается справедливым, когда L выходов канала суммируются без взвешивания, однако С будет пропускной способностью канала задачи 8.11.(в).
8.13. (а) Пусть для любого т, 1 ; т < М,
4
Хт (t)= 2 а‘ х™ (t + X — ix).
Если xm(t), 1 < от < M, рассматривать как кодовые слова, то получается канал с аддитивным гауссовым белым шумом. Из (8.2.18) видно, что декодер максимума правдоподобия выбирает от, которое максимизирует 1 y(t) xm(t) dt —1/2J Xm(t)dt. Это соответствует следующей схеме, изображенной на рисунке.
Bbi6apderncnj наиоолыиии,
выход
22 Зак. 210
673
_ 4
(б)- Пусть x(t)— V a?x(/-fx — it). Тогда /= l
oo 4 4 со
j x2(0ttf=2 2 j x (t + T — h) x(t + T~jT)'dt-
—oo г = 1 } — 1 —со
Используя неравенство Шварца и то, что а; > 0, имеем
j (t) dt < 2 s °t ai f *2 (o *t=( 2 V I’ *a (0dt-
1=1 <-=i ” v<=i /
Таким образом, ограничение на мощность S входов линии задержки приводит к ограничению на мощность (2 ai)2 выходов линии задержки. Следовательно,
Вместе с тем синусоиды сколь угодно большой длительности с частотами, кратными Vt, подходят сколь угодно близко к удовлетворению этого мощност-ного ограничения. Следовательно, при достаточно больших Т можно конструировать коды с произвольно большим числом ортогональных кодовых слов, каждое из которых имеет энергию, сколь угодно близкую К (^.О;)2 ST, и
(в) Применяя (8.2.43) и (8.2.44) к ортогональным кодам, рассмотренным выше, получаем результат, изображенный на рисунке.
8.14. (а) Сначала выберем масштаб на входе и выходе канала так, чтобы шум имел единичную спектральную плотность. Расписывая р(у | хт) для каждого т, как в (8.2.30) и (8.2.31), видим, что декодирование по методу максимума правдоподобия сводится к следующему: вычисляется ут = f y(t) cpm(t) dt для всех т, 1 < т < М/2; выбирается т, для которого | ут | наибольшее, и декодируется сообщение т, если у > 0, и декодируется сообщение т + М/2, если ут < 0.
Предположим теперь, что передано сообщение т(т < М/2) и принято некоторое значение ут. Если ут < 0, то определенно будет сдгяана ошибка, а если ут > 0, то будет сделана ошибка, если | ут, | > ут для некоторого т' ф т. Вероятность этого при заданном ут равна
<г(г/т) = 1 + [Ф((/т)Ф('/т)^/2_1 =
= 1 —[1—2Ф (-Ут)]М/2-1, Ут> 0.
Аддитивная граница дает
674
Q (Ут) ^ (М 2) Ф (¦ ут), ут 0.
Определяя г/0 из М ехр (— у%/2)=\, можно верхнюю границу Q(ynl) представить в виде
\{М — 1) Ф ( — ут), ут>Уо,
которая учитывает то, что Qm(y) = 1 для ут < 0. Это та же граница, что и верхняя граница Q(ym), использованная в (8.2.37); следовательно, как и ранее, получаем (8.2.43). Из симметрии вытекает, что эта же граница применима для т > М/2.
Заметим, что при низких скоростях вероятность того, что любое заданное т' (отличное от т! = т + М/2) более правдоподобно, чем переданное сообщение т, равна Ф (—АР/ 2), где А = ~\/2<?/А0. Вероятность того, что гп' = т + + М/2 более правдоподобно, чем т, равна Ф (—А) < Ф(—АГ/ 2). Затем, используя аддитивную границу, получаем Ре, т < (М — 1) Ф(—Ар/ 2). Это та же граница, как и в (8.2.34), и отсюда (8.2.44) следует, как и ранее.