Научная литература
booksshare.net -> Добавить материал -> Физика -> Божокин С.В. -> "Фракталы и мультифракталы " -> 25

Фракталы и мультифракталы - Божокин С.В.

Божокин С.В., Паршин Д.А. Фракталы и мультифракталы — Ижевск: НИЦ, 2001. — 128 c.
Скачать (прямая ссылка): fraktaliimultifraktali2001.djvu
Предыдущая << 1 .. 19 20 21 22 23 24 < 25 > 26 27 28 29 30 31 .. 36 >> Следующая


г=1 г=1

В результате мы приходим к следующему выражению

E Piinpi

D1 = Iim-. (2.17)

г^О In ? У J

С точностью до знака числитель в этой формуле представляет собой энтропию фрактального множества S(є):

Ще)

S(e) = ~ E Pi Inpi. (2.18)

г=1

Такое определение энтропии множества полностью идентично используемому в термодинамике, где под рг- понимается вероятность обнаружить систему в квантовом состоянии і. В результате величина обобщенной фрактальной размерности D1 связана с энтропией S(є) соотношением

Di = -Hm^. (2.19)

е^О In ? У ;

Прежде чем далее характеризовать эту величину, напомним, что в термодинамике энтропия есть мера беспорядка в системе. Простой пример, где молекулы газа, помещенные вначале в одну половину сосуда, заполняют весь сосуд, когда убирается перегородка, показывает, что в этом процессе беспорядок, а следовательно, энтропия возрастает. Этот рост беспорядка связан с ростом нашего незнания о состоянии системы, поскольку до удаления перегородки мы знали больше о расположении молекул.

Основываясь на подобных соображениях, Клод Шенон обобщил понятие энтропии 5, известное в термодинамике, на абстрактные зада-

90 чи теории передачи и обработки информации. Для этих задач энтропия стала мерой количества информации, необходимой для определения системы в некотором положении і. Другими словами, она является мерой нашего незнания о системе.

Поясним эти соображения на простом примере. Допустим, имеется ящик с двумя отделениями, в одном из которых находится точка. Однако мы не знаем, в каком. Спрашивается, сколько вопросов с ответом да или нет нужно задать, чтобы определить местоположение точки? Ответ очевиден — один вопрос. Эту информацию принимают за единицу и называют ее бит.

Для обнаружения точки в ящике с четырьмя возможными состояниями требуется уже два вопроса, и, соответственно, мера нашего незнания о системе равна двум битам. Эту информацию можно записать как логарифм по основанию два от числа возможных состояний системы

I = Iog2 4. (2.20)

Теперь становится понятно, что справедливо логарифмическое соотношение между максимальным количеством информации I и числом состояний M

J = Iog2M. (2.21)

Так, например, чтобы определить положение точки на шахматной доске с 64 = 26 клетками, требуется 6 вопросов.

В предыдущем случае ящика с двумя состояниями количество информации в один бит можно выразить также следующим образом

Учитывая, что 1/2 = р\ = р2 — есть вероятность обнаружить систему в одном из ящиков, эту формулу можно переписать так

/= - EpiIog2 (2.23)

і

В таком виде она справедлива и в случае ящика с M = 2п состояниями, где все вероятности Pi = 1 /М одинаковы. Более того (и это как раз и составляет результат, полученный Шеноном), эта формула остается справедливой и в случае неравных вероятностей pi, однако

91 ее нужно тогда понимать в смысле среднего значения по большому числу испытаний. Отсюда уже остается всего один шаг до соотношения между энтропией S(є) и количеством информации I.

Возвращаясь к исходной задаче о распределении точек на фрактальном множестве С, можно сказать, что поскольку, как следует из (2.19),

S(є) и e~D\ (2.24)

то величина Di характеризует информацию, необходимую для определения местоположения точки в некоторой ячейке. В связи с этим обобщенную фрактальную размерность Di часто называют информационной размерностью. Она показывает, как информация, необходимая для определения местоположения точки, возрастает при стремлении размера ячейки є к нулю.

2.1.4 Корреляционная размерность D2

Рассмотрим еще один частный случай, q = 2, и покажем, какой физический смысл имеет обобщенная фрактальная размерность D2- Для нее справедливо следующее выражение

N(e)

ln E Pi

D2 = Iim —!=^-. (2.25)

Є^О ІП Є Х '

Определим парный корреляционный интеграл

/и = Iim ±?6>(e-|r„-rm|), (2.26)

ЛГ->OO TV z п,т

где суммирование проводится по всем парам точек нашего фрактального множества с радиус-векторами гп и rm; 0(х) — ступенчатая функция Хевисайда, 9{х) = 1, если х > О и 0(х) = 0, если х < 0. Сумма в выражении (2.26) определяет число пар точек п, ш, для которых расстояние между ними меньше, чем є. Поэтому, поделенная на N2, она определяет вероятность того, что две наугад взятые точки разделены расстоянием меньшим, чем є 12.

12 На самом деле надо делить на число пар, равное N(N — 1)/2, но мы здесь не интересуемся численными коэффициентами, а только зависимостью от є.

92 Эту же вероятность МОЖНО определить И по-другому. Величина Pi, согласно своему определению (2.1), представляет собой вероятность попадания точки в г-ю ячейку с размером є. Следовательно, величина р\ представляет собой вероятность попадания в эту ячейку двух точек. Суммируя р\ по всем занятым ячейкам, мы получаем вероятность того, что две произвольно выбранные точки из множества С лежат внутри одной ячейки с размером є. Следовательно, расстояние между этими точками будет меньше или порядка є. Таким образом, с точностью до численных коэффициентов, принимая во внимание равенство (2.25), получаем
Предыдущая << 1 .. 19 20 21 22 23 24 < 25 > 26 27 28 29 30 31 .. 36 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed