Научная литература
booksshare.net -> Добавить материал -> Физика -> Марешаль А. -> "Структура оптического изображения. Дифракционная теория и влияние когерентности света" -> 49

Структура оптического изображения. Дифракционная теория и влияние когерентности света - Марешаль А.

Марешаль А., Франсон М. Структура оптического изображения. Дифракционная теория и влияние когерентности света — М.: Мир, 1964. — 295 c.
Скачать (прямая ссылка): strukturaopticheskogosveta1964.djvu
Предыдущая << 1 .. 43 44 45 46 47 48 < 49 > 50 51 52 53 54 55 .. 73 >> Следующая


Отсюда находим, что средний поток информации равен, согласно формуле (10.4), величине 4,2 дв. ед. на букву (он был бы равен log232 = 6de. ед. на букву, если бы использование всех букв было равновероятным).

В действительности информация, -содержащаяся в тексте, несомненно, невелика даже для сжатых и -в совершенстве отредактированных текстов. Действительно, каждому известно, что без вреда для ясности текста и не подвергая сомнению его интерпретацию, можно сокращать некоторые слова, следовательно, некоторые буквы совершенно бесполезны и не приносят никакой информации. Об их присутствии было известно и до чтения текста. Например, если в 208 *

Часть III. Влияние аберраций

Таблица 10

Буква Вероятность Буква Вероятность Буква Вероятность
а 0,0694 t 0,0111 P 0,0276
а 0,0045 g 0,0077 ',1 0,0134
а 0,0008 h 0,0081 г 0,0633
Ь 0,0087 і 0,0738 S 0,0850
с 0,0309 І 0,0060 t 0,0708
с 0,0007 k 0,0000 и 0,0683
d 0,0367 I 0,0569 V 0,0152|
е 0,1509 tri 0,0304 W 0,00002
е 0,0189 n 0,0724 X 0,0037
о 0,0040 O 0,0537 У 0,00267
е 0,0028 O 0,0003 Z 0,00131

тексте известны одна или несколько первых букв слов, то остальные не являются произвольными; так, во французском языке после буквы <7 в большинстве случаев следует и, а затем какая-либо гласная буква. Следовательно, указанный выше способ оценки неправилен, поскольку мы молчаливо допустили, что вероятность присутствия какой-то определенной буквы не зависит от наличия предыдущих букв. Для того чтобы получить точную оценку, нужно знать, какова вероятность появления одной из букв, принимая во внимание предыдущие буквы (условная вероятность). Таким образом, мы приходим к заключению, что поток информации оказывается значительно ниже указанной ранее величины и составляет около 1,5 дв. ед. на букву: использование обычно применяемых символов с помощью специального еще не разработанного кода дает возможность утроить поток информации. Говорят, что письменное сообщение обладает большой избыточностью кода, т. е. что поток информации не равен максимально возможному потоку, поскольку вероятность присутствия одной буквы в сильной степени зависит от присутствия других, предыдущих букв; вероятность может даже достичь значения, равного единице, если мы имеем дело с окончанием слова, которое можно без риска сократить. Впрочем, следует отметить, что избыточность кода может быть полезной: она Гл. 10. Теория информации и оптическое изображение 209

позволяет контролировать правильность текста и исправлять часто встречающиеся ошибки (опечатки), что было бы невозможно, если бы любые комбинации букв имели смысл.

§ 5. Информация в физических измерениях

Предположим, что мы произвели несколько непрерывных измерений физической величины и передаем ее значение. Априори существует бесконечное число ее возможных значений, и можно предположить, что количество информации, связанное со значением этой величины, также бесконечно, поскольку каждая величина имеет бесконечно малую вероятность. В действительности дело обстоит не так, ибо измерение всегда сопровождается погрешностью. Если априори предположить, что значение величины всегда содержит некую ошибку, происходящую, например, вследствие случайных флуктуаций (называемых в электронике «шумами»), то это положение можно схематически представить следующим образом. Если величина, подлежащая измерению, которую мы будем называть сигналом S, может принимать всевозможные значения в интервале длины S и если шум характеризуется амплитудой Ь, то можно предположить, что измерение величины сводится к тому, чтобы найти положение значения этой величины в совокупности N=s/b малых равных интервалов; количество информации тогда будет таким:

Когда возможные значения s и b не распределены с одинаковой вероятностью в интервале их изменений, то вычисление информации становится более сложным. Когда значения S размещаются в окрестности средних значений по закону вероятности гауссова типа с дисперсией s, а вероятность значений b имеет гауссово распределение с дисперсией Ь, то можно показать, что выигрыш информации, полученный при выполнении одного измерения, в среднем равен

-log|=log I

14—5090 210 *

Часть III. Влияние аберраций

Можно сказать, что результатом измерения является уменьшение неопределенности в M раз, где

Для sib у 1 эта величина эквивалентна s/6; с другой сторЬны, для s/6->0

что вполне естественно, так как в этом случае измерение становится слишком неточным, чтобы дать какую-либо информацию.

§ 6 Информация, содержащаяся в оптическом изображении

Попробуем применить теперь изложенные выше идеи к случаю оптического изображения. На первый взгляд кажется очень трудным подойти к определению количества информации, содержащейся в изображении. Оптическое изображение действительно может передать всякого рода информацию об объекте: его форму, размеры, цвет, иногда его оптическую толщину (в случае фазового контраста). С другой стороны, очевидно, что в оптическом изображении должно иметь место значительная избыточность кода; в частности, это касается передачи цвета: чаще всего листья зеленые, небо голубое и т. д. (кроме случая, когда речь идет о «современной» живописи...).
Предыдущая << 1 .. 43 44 45 46 47 48 < 49 > 50 51 52 53 54 55 .. 73 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed