Научная литература
booksshare.net -> Добавить материал -> Физика -> Николис Дж. -> "Динамика иерархических систем: эволюционное представление" -> 143

Динамика иерархических систем: эволюционное представление - Николис Дж.

Николис Дж. Динамика иерархических систем: эволюционное представление — М.: Мир, 1989. — 490 c.
Скачать (прямая ссылка): dinamikaiearhicheskihsistem1989.pdf
Предыдущая << 1 .. 137 138 139 140 141 142 < 143 > 144 145 146 147 148 149 .. 187 >> Следующая

дать наблюдатель, знающий предысторию источника и меру непредсказуемости
порождаемых источником последовательностей символов/состояний. '
Почерпнутые из гл. 4 элементарные сведения по теории информации (о
марковских цепях порядка 1) позволяют нам вычислить энтропию
эргодического марковского источника порядка т, обладающего п дискретными
состояниями. Полное число последовательностей длины т состояний, которые
можно построить из п состояний, равно пт. [Иначе говоря, если мы будем
рассматривать каждую последовательность 5m(ai, а2, ..., ат) как т-значную
дробь в системе счисления с основанием п и расположим все такие
последовательности как точки на интервале [0, 1], то две соседние точки
будут разделены расстоянием п и таких точек будет 1 - п~т.]
Каждая m-значная последовательность из п символов/состояний задает
"состояние" Sm нашей марковской цепи т-го порядка. Количество информации,
получаемое наблюдателем, когда следующее состояние есть ат +1 при
условии, что сейчас цепь находится в состоянии Sm определяется величиной
/ = - logs р (~; ат) = - log2 р (<Wi/SJ, (6.4.59)
где P(am + i/Sm) - условная вероятность того, что при данном "состоянии"
Sm следующим (т + 1)-м символом будет ат+\-Чтобы вычислить энтропию
нашего источника, мы должны усреднить выражение (6.4 59) по всем
возможным переходам из Sm в От +1 и по всем возможным пт "состояниям" Sm.
Пусть Р (Sm)-вероятность того, что мы имеем некую определенную
последовательность из т символов \г: =.i^(Sm)=l]. Тогда среднее
количество информации на символ а, получаемое наблюдателем, равно
TTL I
п п- 1
Шт = - Z P(Sm) Z P(<ym + i/Sm)log2P(em+i/Sm). (6.4.60)
Sm~° ат+1~°
Но по теореме Байеса
Р (Sm, Om + l) = Р (Sm) Р (om + l/Sm), (6.4.61)
386 Глава 6
где P(Sm, crm+i) - совместная вероятность последовательного появления Sm
И Orn+1, поэтому
log2 Р (Sm, от +,) = log2 Р (SJ + log2 Р (am + i/Sm)
и
l°g2 Р (am + l/Sm) = log2 Р (Sm, am + l)-\0g2P(Sm). (6.4.62)
Подставляя полученное выражение в соотношение (6.4.60), получаем
пт п-1
А/т = - Z Z Р (Sm, <ym + i) [log2 Р (Sm, am + l) - log2 P (Sm)] =
n /Г n-1
= ~ Z I Z P(Sm, crm + l)log2 P(Sm, om+]
sm=0 CTm + l_0
-Г Z P(Sm, ffm + 1)llog2P(Sm)|. (6.4.63)
m+i=0 J >
Но так как
Z P(Sm,am+l) = P(Sm), (6.4.64)
am+i=°
мы приходим к соотношению
пт ( г п-1 ">
А/га=- Z ? P(Sm< CTm + l) !og2 Л (Sm, crm + 1) i -
Sm~0 ' ^m+i-0
- P (Sm) Iog2 P (Sm) j. (6.4.65)
Ясно, что
П- 1
? P (Sm, om+l) log2 P (Sm, om+l) = P (Sm+1) iog2P(Sm+1), (6.4.66)
°т-Н = 0 поэтому
Ыт = 1т+1-1т, (6.4.67)
где
пт
Im = ~ Z Р (Sm) l0g2 Р (Sm). (6.4.68)
Таким образом, для странного аттрактора А1т есть среднее количество новой
информации, получаемое наблюдателем, когда траектория аттрактора движется
из "ячейки" в "ячейку" в пространстве состояний, в котором произведено
разбиение. Существенно, что (экспоненциальная) скорость локального
разбега-
Стохастичность: хаос и странные аттракторы
387
ния соседних траекторий "ответственна" за новую информацию, порождаемую
при каждом следующем измерении (см. также разд. 6.5).
Переходя к пределу при т - оо, получаем выражение
для скорости [бит/с], с которой развертывающийся аттрактор порождает
информацию. Метрическая энтропия определяется выражением (6.4.69), если
взять максимум по всем возможным разбиениям |3 пространства состояний, т.
е.
Таким образом, метрическая энтропия есть верхний предел (предполагающий
идеального наблюдателя) количества информации, получаемой за одну секунду
от динамической эволюции странного аттрактора. С увеличением номера
итерации разрешающая способность повышается, и скорость получения
информации (6.4.70) возрастает, так как мелкомасштабные случайные
(тепловые) флуктуации, неизбежно присутствующие в любой крупномасштабной
системе, теперь не замазываются и начинают сказываться на
макроскопическом уровне. Как установить соотношение между ,метрической
энтропией, с одной стороны, и информационной размерностью (и спектром
показателей Ляпунова) - с другой?
Как уже говорилось выше (см. также соотношение (6.14)), мы можем считать,
что пт возможных последовательностей, порождаемых потоком аттрактора,
равномерно распределены на единичном интервале как множество m-значных
дробей (символов Xi) в системе счисления с основанием п. Так как
расстояние между точками единичного интервала, соответствующими этим
дробям, составляет п~т, дроби можно перенумеровать числами от 0 до 1 -
п~т.
Рассмотрим теперь функцию плотности вероятности Рт(х). Для этого построим
график, откладывая P(Sm) как ординату над точкой единичного интервала,
соответствующей дроби х. Ясно, что
где Sm ^ х С Sm + п~т, Sm = 0, пгт, ..., 1 - п~т, и, кроме того, Рт(х)
удовлетворяет соотношениям нормировки
(6.4.69)
Метрическая энтропия = = sup ( lim -tjV (6.4.70)
(3 oo m at J
Af->0
Pm(x) = P(Sm)nm,
(6.4.71)
^ Pm (x) dx = 1, или ^ P(Sm)dx = n~m. (6.4.72)
о
0
388 Глава 6
В пределе при m-voo, когда марковская цепь обретает бесконечную память,
Предыдущая << 1 .. 137 138 139 140 141 142 < 143 > 144 145 146 147 148 149 .. 187 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed