Научная литература
booksshare.net -> Добавить материал -> Физика -> Рюэль Д. -> "Случайность и хаос" -> 51

Случайность и хаос - Рюэль Д.

Рюэль Д. Случайность и хаос — И.: НИЦ, 2001. — 192 c.
Скачать (прямая ссылка): sluchaynostihaos2001.pdf
Предыдущая << 1 .. 45 46 47 48 49 50 < 51 > 52 53 54 55 56 57 .. 78 >> Следующая

Точнее, вы сможете добиться того, чтобы вероятность неточной передачи
стала произвольно низкой. Это, конечно же, требует доказательств, и сама
теория кодов исправления ошибок достаточно сложна, но ее основные идеи
просты.
Определение информации было создано после определения энтропии,
измеряющей количество хаотичности, присутствующей в системе. Почему
информация должна измеряться хаотичностью? Просто потому, что, выбирая
одно сообщение в классе всех возможных, вы рассеиваете хаотичность,
присутствующую в этом классе.
Теория информации была замечательно успешной дисциплиной, как в своем
математическом развитии, так и в практических применениях. Но как и в
случае с физическими теориями, необходимо понимать, что теория информации
работает с идеализациями реальности и упускает некоторые важные моменты.
Считается, что источник информации производит хаотическую
последовательность разрешенных сообщений (или бесконечно длинное
сообщение с определенными статистическими свойствами). Не требуется,
чтобы сообщения были полезными или логически непро-
Информация
127
тиворечивыми; они могут вообще не иметь смысла. Сказать, что некоторое
сообщение имеет большое количество информации, - это все равно что
сказать, что оно извлечено из большого класса разрешенных сообщений или
что оно очень случайно. Некоторая доля этой случайности может
соответствовать полезной информации, а другая может оказаться обычным
мусором.
Рассмотрим пример: музыкальные мелодии. Отставим в сторону всевозможные
детали и рассмотрим мелодии как сообщения, в которых алфавитом является
музыкальная гамма. Мы можем попытаться определить количество информации
(или хаотичность) мелодии, изучая частоту различных нот, а также
статистику интервалов между последовательными нотами (это стандартная
процедура в теории информации)4. Как уже упоминалось ранее, более старая
музыка задействует в основном маленькие интервалы, а потому их мало. В
более поздние времена чаще встречается растущее разнообразие интервалов.
Из этого можно сделать вывод, что (в западной классической
музыке)происходило постепенное увеличение количества информации, или
хаотичности, музыкальных мелодий5. Это интересный вывод, но при этом к
нему следует отнестись с долей скептицизма. Ведь, в действительности,
музыкальная мелодия - это нечто большее, чем статистика последовательных
интервалов. Музыкальное произведение имеет начало и конец, а также
приличную структуру в основной своей части. Эта структура не просто
соответствует связям последовательных нот (статистике интервалов), но и
долгосрочным отношениям (отношениям, распространяющимся на все
произведение), которые невозможно уловить с помощью обыкновенных
информационнотеоретических описаний.
Кроме того, информация, содержащаяся в мелодии, может быть интересной и
оригинальной или бессмысленной и скучной. Если вы наложите нотный стан на
карту неба и отметите ноты на местах расположения звезд, то вы получите
"небесную музыку", обладающую большим объемом информации, но это не
означает, что сама музыка будет хорошей.
Количество информации, содержащейся в произведении искусства, является
важным понятием (его можно определить как для стихотворений и мелодий,
так и для картин). Это не значит, что высокое качество эквивалентно
большому или малому количеству информации. Вероятно, невозможно говорить
об искусстве, если оно не содержит хотя бы минимум информации, однако
некоторые художники пробовали использовать очень низкие ее объемы. И
напротив, количество информации, которое содержится во
128
Глава 21
многих произведениях искусства (картинах или романах), просто огромно6.
Быть может, в данный момент вы уже несколько раздражены, поскольку я
говорю о количестве информации, содержащейся в сообщениях, и умалчиваю о
проблеме смысла этих сообщений. Вообще вам нередко может казаться, что
ученые систематически обращаются к более формальным и поверхностным
вопросам и оставляют в стороне существенные. На подобную критику можно
ответить тем, что наука придает особое значение скорее хорошим ответам
(и, если это возможно, простым ответам), нежели глубоким вопросам.
Совершенно очевидно, что проблема смысла является очень глубокой и
сложной. Помимо всего прочего, она связана с тем, как работает наш мозг,
а об этом мы знаем не особенно много. Таким образом, нам не следует
удивляться, почему современная наука способна работать только с
достаточно поверхностными аспектами проблемы смысла. Одним из этих
поверхностных аспектов и является количество информации в том смысле, в
каком мы рассматривали его в данной главе, и замечательно уже то,
насколько далеко это нас заводит. Мы можем измерять количества информации
так же, как мы измеряем количества энтропии или электрического тока. И
это не просто можно применить на практике, это дает нам понимание природы
произведений искусства. Конечно, нам хотелось бы задавать более
претенциозные вопросы, но во многих случаях ясно, что эти вопросы слишком
Предыдущая << 1 .. 45 46 47 48 49 50 < 51 > 52 53 54 55 56 57 .. 78 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed