Научная литература
booksshare.net -> Добавить материал -> Биология -> Полетаев И.А. -> "Сигнал о некоторых понятиях кибернетики" -> 35

Сигнал о некоторых понятиях кибернетики - Полетаев И.А.

Полетаев И.А. Сигнал о некоторых понятиях кибернетики — Советское радио, 1958. — 413 c.
Скачать (прямая ссылка): signal1958.djvu
Предыдущая << 1 .. 29 30 31 32 33 34 < 35 > 36 37 38 39 40 41 >> Следующая

Передача телеграмм с последовательным исправлением ошибок повторным кодированием дает результат только спустя некоторое время. Вот как примерно выглядит подобная передача по мнению одного из изобретателей кодов.
Телеграмма, принятая с возможными искажениями, вручается адресату с припиской: «Вероятность ошибки на букву равна 0,1; исправления—завтра». Назавтра, после того как приняты следующие телеграммы с дополнитель-
* О двоичных числах см. гл. 7.
91
ными контрольными символами и найдены поправки, адресату вручается извещение: «Вместо гетры читайте метры, вместо мыло читайте мило; вероятность ошибки на букву теперь равна 0,01; дополнительные исправления—на следующей неделе». Через неделю адресату вручается новое извещение: «Вместо кости читайте гости, вероятность ошибки на букву—0,001; ждите следующего месяца». Это продолжается до тех пор, пока адресат не попросит больше не беспокоить его извещениями.
Теорема Шэннона
Самокорректирующиеся коды позволяют в ряде случаев с успехом пользоваться каналом связи даже тогда, когда уровень шумов в нем относительно высок. Вопрос о построении помехоустойчивых кодов для всех возможных случаев и в любом алфавите еще не решен до конца. Использование самокорректирующихся или других рациональных кодов требует, разумеется, разработки соответствующих автоматических кодирующих и декодирующих устройств.
Каково же то предельное количество информации, которое может быть передано без ошибок по каналу с шумами? Иначе говоря, чему равна пропускная способность канала? Ответ на этот вопрос, по крайней мере для одного весьма часто встречающегося случая, дает теорема Шэннона для канала с шумами. Пропускная способность канала вычислена точно только для случая гауссовых шумов, мощность которых равномерно распределена по частоте в пределах полосы пропускания канала при ограниченной средней мощности шумов и сигнала и их статистической независимости. Для этого случая пропускная способность канала равна
C = W\og2^-~- ед/сек, (4.26)
где Р — средняя мощность сигнала,
N — средняя мощность шумов,
W — полоса пропускания канала.
Не заботясь о строгости доказательства, можно вкратце пояснит*» вывод этой формулы следующим образом. Любая случайная функция с ограниченной полосой частот W может быть полностью описана 2WT ее значениями за время Т. Значения амплитуды сигнала, смешанного с шумом,
92
имеют в среднем величину yP-\-N (складываются мощности, которые пропорциональны квадратам амплитуд). Из-за наличия шумов различение амплитуд выходной функции происходит с точностью до величины средней амплитуды шума — YN. Стало быть число различаемых значений амплитуды на выходе в среднем равно \ P-\-NlY*N. А так так в единицу времени проходит 2W дискретных значений функции, то пропускная способность равна
С = 2W log2 У = W log2 . (4.27)
Для очень малых отношений сигнал/шум можно написать приближенно
C = nnog2(l + ^n^log2e = l,443U7^ . (4.28)
Действительная скорость передачи может как угодно мало отличаться от пропускной способности канала, если применить правильный код. Передавать информацию без ошибок с большей скоростью невозможно.
В формулу Шэннона входит как полоса пропускания так и мощность сигнала Р. Можно сохранить пропускную способность канала, уменьшив мощность передатчика и соответственно увеличив полосу пропускания или наоборот. При этом, разумеется, кодирование должно также измениться. Такая возможность действительно используется в системах связи. Например, различные типы так называемой импульсно-кодовой модуляции позволяют это осуществить.
Исследования показывают, что существующие системы связи далеки от достижимого предела в смысле использования их пропускной способности. Для подтверждения этого мы можем привести результат простого расчета, приводимого Шэнноном. Если телефонный канал будет работать оптимальным кодом для передачи нормальной речи со скоростью 100 слов в минуту при наличии шумов, меньших в 10 раз по амплитуде, чем сигнал, то при передаче с точностью до смысла (т. е. не передавая интонаций) потребуется полоса пропускания всего 2,3 герца, вместо обычно используемых при тех же условиях 1(5—5 тысяч герц. Очевидно, разработка кодов, кодирующих устройств и их использование могут принести немалую экономию.
93
Информационная и физическая Энтропия. Организаций
Понятие количества информации в теории информации тесно связано с понятием физической энтропии. Этому не приходится удивляться, так как сигнал есть отражение явлений физического мира и информация в семантическом значении этого слова есть соответствие сигналов и событий. Следовательно, случайный характер явления, распределение вероятностей и физическая энтропия просто переносятся на сигнал, когда физическое явление представляет собой источник сообщений, которые перекодируются в алфавит сигнала. Если бы мы задались целью описать такое явление в газе, которое переводит его в новое состояние, связанное с изменением физической энтропии на величину Яф, то минимальное количество информации, содержащееся в таком сообщении, или его информационная энтропия Ян» были бы численно равны изменению физической энтропии Яф.
Предыдущая << 1 .. 29 30 31 32 33 34 < 35 > 36 37 38 39 40 41 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed