Научная литература
booksshare.net -> Добавить материал -> Физика -> Галлагер Р. -> "Теория информации и надежная связь" -> 189

Теория информации и надежная связь - Галлагер Р.

Галлагер Р. Теория информации и надежная связь — М.: Советское радио, 1974. — 738 c.
Скачать (прямая ссылка): teoriyainformacii1974.pdf
Предыдущая << 1 .. 183 184 185 186 187 188 < 189 > 190 191 192 193 194 195 .. 355 >> Следующая


Когда М велико, возникает проблема выбора кодовых слов. Из анализа случая двух кодовых слов ясно, что энергия разности J [xm(t)—

— хт' (t)]2dt должна быть большой для всех т Ф т'. Можно получить некоторое представление относительно возможных значений энергии этих разностей, оценивая среднюю по т и т' энергию разности при условии, что

(8.2.22)

(8.2.23)

(8.2.24)
Тогда средняя энергия разности удовлетворяет соотношениям

1

М(М — 1)

1

~ М(М —1) 2

(8.2,25)

т т

т,т

— f 2lxm{t)2xm-{i)dt^ (8.2.26)

I ) V ГУ, rr> '

(8.2.27)

M(M — 1)

< _М_ 4?_ ""M —1 iV0

Соотношение (8.2.27) следует из (8.2.26), если пренебречь вторым членом в (8.2.26), который всегда отрицателен, и использовать ограничение на энергию xm(i). Когда М = 2, эта граница равна 8E/N0 и равна энергии разности для хт’ (t) = — xm(t). При М оо граница сходится к значению 4E/N0, которое, как можно легко увидеть, является энергией разности для ортогональных кодовых слов энергии 2EIN0. Поэтому из (8.2.27) следует, что для больших М существует большое число пар кодовых слов, для которых энергия разности немного больше, чем для ортогональных кодовых слов.

В оставшейся части этого параграфа будут найдены верхние и нижние границы вероятности ошибки для множества ортогональных кодовых слов равной энергии. Однако прежде всего свяжем ортогональные коды с другим хорошо известным классом кодов — симплексными кодами. Пусть хг({), ..., хм (t) множество ортогональных функций равной энергии; определим кодовые слова ассоциированного симплексного кода с помощью равенств

U0 = *mW-^2*m'(0, 1<т<м. (8.2.28)

М т'

Геометрически \т($) могут быть истолкованы как вершины (М—^-мерного равностороннего симплекса с центром в начале координат. Так как кодовые слова симплексного кода получаются в результате простого смещения связанного с ним ортогонального кода, то видно, что эти коды имеют одинаковую вероятность ошибочного декодирования. Однако энергия симплексных кодовых слов меньше, чем энергия ортогональных слов, в (М — 1) /М раз. Интуитивно правдоподобно, что при заданных М и Е симплексный код дает минимум возможной вероятности ошибки в канале с белым гауссовым шумом. Однако строгое доказательство этого еще не найдено.

Вероятность ошибки для ортогональных кодовых слов

Пусть x^i), ..., xM(t) — ортогональные сигналы, имеющие энергию А2 = 2E/N0] здесь, так же как и для случая двух кодовых слов, выбирается масштаб амплитуды, нормирующий шум. Шум предпо-

396
лагается аддитивным гауссовым и белым. Определим ортонормаль-ное множество ср! (t), ..., фM{t) следующим образом:

Тогда xm(t) представляется в виде хт = (0, О, А, 0, ..., 0), где А стоит на т-й позиции. Пусть y(t) — принятая функция и пусть ут —

— JУ(1) Фm(t) dt. Если передано сообщение т, то ут = А + zm, а для т' ф т имеем t/m> = zm-, где гт — независимые нормированные гауссовские случайные величины. Полагая у = (уъ ..., ум), имеем условные совместные плотности вероятностей

Будем считать, что используется декодирование по максимуму правдоподобия. Из (8.2.31) видно, что правило декодирования состоит в том, что выбирается т, для которого ут наибольшее. При этом, если послано сообщение т, то вероятность ошибки равна вероятности того, что ут' ^ ут для некоторого гп! Ф m, 1 ^ т' ^ М. Эту вероятность можно записать в виде

где, для заданного ут, Q(ym) — вероятность того, что, для некоторого т', т' Ф т, ут'~^ ут. Эта вероятность равна единице минус вероятность того, что ут' < ут для всех т', и так как все ут' — независимые нормированные гауссовские случайные величины, то имеем

Равенства (8.2.32) и (8.2.33) дают точное выражение для Ре<т) оно было табулировано Витерби (1961) для различных значений А и М. Однако здесь мы хотим найти простые и допускающие наглядное толкование границы для Ре<т.

Для того чтобы получить весьма простую первоначальную границу, заметим, что для заданных /пит' вероятность, что ут' ^ Ут* когда передано т, равна вероятности ошибки для двух кодовых слов, определенной в (8.2.24) при К = 0. Следовательно, используя аддитивную границу для М — 1 возможных выборов т', имеем

При другом методе, который оказывается лучшим, когда М велико, можно использовать аддитивную границу для Q(ym) и получить

(8.2.29)
Предыдущая << 1 .. 183 184 185 186 187 188 < 189 > 190 191 192 193 194 195 .. 355 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed