Научная литература
booksshare.net -> Добавить материал -> Физика -> Николис Дж. -> "Динамика иерархических систем: эволюционное представление" -> 28

Динамика иерархических систем: эволюционное представление - Николис Дж.

Николис Дж. Динамика иерархических систем: эволюционное представление — М.: Мир, 1989. — 490 c.
Скачать (прямая ссылка): dinamikaiearhicheskihsistem1989.pdf
Предыдущая << 1 .. 22 23 24 25 26 27 < 28 > 29 30 31 32 33 34 .. 187 >> Следующая

необходимо извлечь) того, какой из комплексов ответствен за наблюдаемое
макросостояние? Разделим мысленно рассматриваемую систему на две части-1
и 2. Пусть W\ и Wz - число комплексов, ответственных за состояние первой
и второй половины системы; ясно, что W = WiW2.
Степень незнания, или энтропия S, с которой микросостояние отвечает
за наблюдаемое макросостояние, равна S(l^i)
для первой и 5(1^2) для второй части системы. В силу адди-
тивного свойства информации для всей системы справедливо соотношение
s (IT) = S (Wjr2) = S (Wi) 4- S (1Г2). (2.3.16)
Дифференцируя обе части по W2, получаем
dS dW dS (W2) _ dW dW2 dW2 ~~ '
или
riS-S(^2) = 0. (2.3.17)
Дифференцируя уравнение (2.3.17) no W\, приходим к уравнению
w d2S dW dS
1 dW2 dWt dW
ЧЛИ
W2WlS(W) + S(W) = 0,
или, наконец,
rs (IT) + S (Г) = 0.
(2.3.18)
66
Глава 2
Планк нашел решение этого уравнения в виде
S = k\nW + c, (2.3.19)
где k - постоянная Больцмана, а с - константа, определяемая из начальных
условий. Таким образом, физическая энтропия системы определяется
соотношением
S = Ailnr (2.3.20)
(каким образом постоянная Планка вошла в решение уравнения (2.3.18),
объясняется в конце этого раздела).
Какая взаимосвязь существует между информационной энтропией и физической
энтропией системы, состоящей из N взаимодействующих компонент,
распределенных по А категориям с заданной населенностью каждой категории?
Для упрощения вычислений положим А = 2 и начнем с выражения для
физической энтропии (2.3.10), где теперь W = N\/Ni\N2\ и jVif + N2 = N.
Предположим, что N\, N2^ К и воспользуемся формулой Стирлинга
п\ ~ (4-)" л/2т. (2.3.21)
Взяв логарифм от обеих частей этого (приближенного) равенства, получим
In (а!) " п In (п) - п + -i- In (п) -f с ~ п [In (п) - 1 ] при 1,
(2.3.22)
поэтому
In N{1 Nt (In N{ - 1) для N, Nu N2.
Это позволяет нам преобразовать выражение (2.3.20) для физической
энтропии к виду
k In W = k (In N\ - In Nx\ - In N2l) "
~k[N{\nN- 1) -AMlnAj - l) - N2(\nN2- 1)] =
= k(N\nN-N1\nNl-N2\nN2)^k(\n-^^j==
= -k[N1\n^- + N2\n^f\; (2.3.23)
если разделить обе части равенства на N, то мы получим выражение для
физической энтропии на одну степень свободы:
"4=-'(t|"f+T'4)' <2-3-24"
Нелинейная динамика и статистическая физика
67
Если числа N, Nu N2 велики, то можно принять, что N\/N ~ Рь N2/N ~ Р2,
где Р1, Р2 - априорные вероятности найти систему соответственно в
категории 1 и в категории 2 [строго говоря, Pi - lim (NJN), если этот
предел существует].
N -> со
Подставляя полученные выражения в (2.3.24), получаем
2
(S) = -k У Pt In Pt, (2.3.25)
1 = 1
ИЛИ
2
(S) = -k In 2 У Pt log2 Pt = k In 2 (Sinf). (2.3.26)
"=l
Мы видим, что переход от физической энтропии на степень свободы к
информационной энтропии системы осуществляется через "переводной
коэффициент" k In 2. Постоянная Больцмана имеет численное значение & =
1,38-10-23 Дж/(К-бит). Следовательно, чтобы отдать предпочтение одной из
двух равновероятных альтернатив (т. е. получить один бит информации), нам
необходимо затратить по крайней мере 1,38-1п 2-10-23 Дж/К-На первый
взгляд информация кажется дешевой, ио в быстродействующих
компьютерах мы уже приблизились к так назы-
ваемому тепловому пределу, который жестко ограничивает возможности
вычислительных устройств [2.7].
Теперь мы можем выяснить условия, при которых энтропия системы необратимо
возрастает со временем, или исследовать предпосылки того, что возмущенная
система, будучи предоставленной сама себе, с вероятностью единица
переходит в состояние с максимальным беспорядком или идеальной
симметрией. Кроме того, как мы увидим в дальнейшем, это состояние, в
котором все парные кросс-корреляции скоростей ведут себя, как дельта-
функции, устойчиво.
Запишем для энтропии общее выражение
А
5 = -УД1пРь (2.3.27)
i = 1
где Pt = lim (Ni/N). Таким образом, при больших N справед-
N -> со
ливо эквивалентное выражение
5--Ет'"^--Е4Ч1пЛГ,-ШЛГ) =
1=1 1 =1
= Е it ln N - Е = W (N ln N - Е N* In N/) • (2-3-28)
i=1 i=l 4 i=1 '
68
Глава 2
Дифференцируя по времени и рассматривая замкнутую си-стему, так что
полное число N "частиц", или компонент системы, постоянно, получаем
Рассмотрим теперь член dNi/dt. Он описывает скорость изменения числа
частиц Nt компоненты i, ie (1........Л), убывает
из-за частиц, переходящих из Pro отсека в другие отсеки, и возрастает из-
за потока частиц, переходящих из всех остальных отсеков в i-й отсек.
Пусть Uij - вероятность перехода одной частицы из i-ro отсека в /-Й отсек
за единичное время, a Uц - вероятность перехода из /-го отсека в i-й
отсек за единичное время. Тогда число частиц, покидающих i-й отсек за
единичное время, равно
Z UijNt-, а число частиц, приходящих в i-й отсек за единичное
Принятие в качестве начального условия молекулярного хаоса, а именно
полного отсутствия корреляций '> между положениями и скоростями отдельных
частиц, переходящих из отсека в отсек, сводится к принятию равенства ?/,-
,• = Up. В этом случае
Предыдущая << 1 .. 22 23 24 25 26 27 < 28 > 29 30 31 32 33 34 .. 187 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed