Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 326

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 320 321 322 323 324 325 < 326 > 327 328 329 330 331 332 .. 355 >> Следующая


Спектральная плотность

шума равна --------------. Отсюда следует, что

1=\ 0 (^
(в) Пусть s(0 — переданная функция и y(t) — сумма принятых функций

L

y(t) = Ls(t)+ 2 21 (t).

1 = 1

Мощность сигнала равна L2 S и спектральная плотность шума равна ^ —1- .

I 2

Следовательно,

C=L2S I 2 N0 (I) нат/с.

/ /=1

8.12. Непосредственный подход к этой задаче заключается в задании двух кодовых слов с помощью ортонормального разложения для L параллельных каналов, нахождении вероятности ошибки и затем оптимизации по кодовым словам. При более простом подходе следует заметить, что каждый из L каналов можно рассматривать как бесконечное множество гауссовских дискретных по времени каналов. Вероятность ошибки не может возрастать, если дисперсии шума в каждом множестве дискретных каналов уменьшаются до дисперсий для множества дискретных каналов с наименьшими дисперсиями. Это, однако, было бы равносильно использованию только лучшего множества каналов. Тогда из (8.2.24) получаем

= Ф

2 SLT min А'0 (I)

I

= Ф ( — У2СТ).

(1)

Далее рассмотрим ситуацию, в которой один и и тот же сигнал должен быть послан по всем каналам. Соображение задачи 8.11, что оптимальный приемник может умножать l-ю функцию на весовой множитель 1 !N0(l) и суммировать no I, остается все еще в силе. Это позволяет свести канал к одному каналу с белым гауссовым шумом; при этом все еще справедливо (1), где С теперь — пропускная способность канала задачи 8.И.(б). Аналогично (1) остается справедливым, когда L выходов канала суммируются без взвешивания, однако С будет пропускной способностью канала задачи 8.11.(в).

8.13. (а) Пусть для любого т, 1 ; т < М,

4

Хт (t)= 2 а‘ х™ (t + X — ix).

Если xm(t), 1 < от < M, рассматривать как кодовые слова, то получается канал с аддитивным гауссовым белым шумом. Из (8.2.18) видно, что декодер максимума правдоподобия выбирает от, которое максимизирует 1 y(t) xm(t) dt —1/2J Xm(t)dt. Это соответствует следующей схеме, изображенной на рисунке.

Bbi6apderncnj наиоолыиии,

выход

22 Зак. 210

673
_ 4

(б)- Пусть x(t)— V a?x(/-fx — it). Тогда /= l

oo 4 4 со

j x2(0ttf=2 2 j x (t + T — h) x(t + T~jT)'dt-

—oo г = 1 } — 1 —со

Используя неравенство Шварца и то, что а; > 0, имеем

j (t) dt < 2 s °t ai f *2 (o *t=( 2 V I’ *a (0dt-

1=1 <-=i ” v<=i /

Таким образом, ограничение на мощность S входов линии задержки приводит к ограничению на мощность (2 ai)2 выходов линии задержки. Следовательно,

Вместе с тем синусоиды сколь угодно большой длительности с частотами, кратными Vt, подходят сколь угодно близко к удовлетворению этого мощност-ного ограничения. Следовательно, при достаточно больших Т можно конструировать коды с произвольно большим числом ортогональных кодовых слов, каждое из которых имеет энергию, сколь угодно близкую К (^.О;)2 ST, и

(в) Применяя (8.2.43) и (8.2.44) к ортогональным кодам, рассмотренным выше, получаем результат, изображенный на рисунке.

8.14. (а) Сначала выберем масштаб на входе и выходе канала так, чтобы шум имел единичную спектральную плотность. Расписывая р(у | хт) для каждого т, как в (8.2.30) и (8.2.31), видим, что декодирование по методу максимума правдоподобия сводится к следующему: вычисляется ут = f y(t) cpm(t) dt для всех т, 1 < т < М/2; выбирается т, для которого | ут | наибольшее, и декодируется сообщение т, если у > 0, и декодируется сообщение т + М/2, если ут < 0.

Предположим теперь, что передано сообщение т(т < М/2) и принято некоторое значение ут. Если ут < 0, то определенно будет сдгяана ошибка, а если ут > 0, то будет сделана ошибка, если | ут, | > ут для некоторого т' ф т. Вероятность этого при заданном ут равна

<г(г/т) = 1 + [Ф((/т)Ф('/т)^/2_1 =

= 1 —[1—2Ф (-Ут)]М/2-1, Ут> 0.

Аддитивная граница дает

674

Q (Ут) ^ (М 2) Ф (¦ ут), ут 0.
Определяя г/0 из М ехр (— у%/2)=\, можно верхнюю границу Q(ynl) представить в виде

\{М — 1) Ф ( — ут), ут>Уо,

которая учитывает то, что Qm(y) = 1 для ут < 0. Это та же граница, что и верхняя граница Q(ym), использованная в (8.2.37); следовательно, как и ранее, получаем (8.2.43). Из симметрии вытекает, что эта же граница применима для т > М/2.

Заметим, что при низких скоростях вероятность того, что любое заданное т' (отличное от т! = т + М/2) более правдоподобно, чем переданное сообщение т, равна Ф (—АР/ 2), где А = ~\/2<?/А0. Вероятность того, что гп' = т + + М/2 более правдоподобно, чем т, равна Ф (—А) < Ф(—АГ/ 2). Затем, используя аддитивную границу, получаем Ре, т < (М — 1) Ф(—Ар/ 2). Это та же граница, как и в (8.2.34), и отсюда (8.2.44) следует, как и ранее.
Предыдущая << 1 .. 320 321 322 323 324 325 < 326 > 327 328 329 330 331 332 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed