Научная литература
booksshare.net -> Добавить материал -> Биология -> Кастлер Г. -> "Возникновение биологической организации " -> 15

Возникновение биологической организации - Кастлер Г.

Кастлер Г. Возникновение биологической организации — М.: Мир, 1967. — 91 c.
Скачать (прямая ссылка): vozniknoveniebiolorganizacii1967.djvu
Предыдущая << 1 .. 9 10 11 12 13 14 < 15 > 16 17 18 19 20 21 .. 30 >> Следующая

А
кроме сигнатуры i, равна тогда произведению Ц (1 —
1
— BjjC) где А —общее число сигнатур в исследуе-
мом функциональном классе. Величина А может равняться,
например, общему числу различных типов ферментативной активности. Если А не очень мало, а каждое отдель-
А
ное значение В/С мало, то (1 — BjjC) f=ne~B^c и (1 —
— Bj/C) я* exp ^— 2 BjlCj(jФ i). Если ни одна из величин В} не вносит существенного вклада в приведенную
5 (А — 1) 5
сумму, то среднее значение В определяется из ----^----==
А
— ^ Bj[C (у ф i), и следовательно, вероятность тоге?, что J-1
какой-либо член совокупности {В,} не принадлежит вместе с тем другой совокупности, приблизительно равна
expj^— ——] • Вероятность того, что он одновременно
принадлежит и другой совокупности, pajHa единице минус эта величина, т. е. при Л>1 и Ав<С становится АВ
равной -gr. Это и есть искомая величина — вероятность
возникающей неопределенности. Отметим, что А служит мерой функциональных потребностей системы (например, числа различных типов ферментативной активности), тогда как С/В определяет максимальное число различимых сигнатур, т. е. функциональную емкость, Л max- Итак, вероятность возникающей неопределенности задается отношением функциональных потребностей к функциональной емкости данной системы. Это согласуется с нашим интуитивным представлением—чем ближе к пределам возможностей системы, тем больше опасность путаницы и ошибки.
Обобщим полученный выше результат на случай двусмысленности. Пусть {С} — совокупность всех объектов какого-то класса, интересующего нас в данной ситуации. Будем рассматривать каждый объект U в {С} как упорядоченную систему признаков. Пусть имеется N таких признаков, причем первый может иметь Ri значений, второй— R2 значений и т. д. Тогда каждый объект выражается Af-кратным или просто N-набором чисел, а коли-
чество возможных типов таких Af-наборов равно произведению R} • /?2 • • ¦ Rn = Ц Ri (i = 1. 2, . .., N). Однако
/?|==2,ов* и п __ 2/2 1о?2 обозначив среднее значе-
i ’ _____________________
ние log 2#г через 2 0og2 Ri) = N log2 Rr получим, что число возможных типов Af-наборов в {С} равно 2AMog2 Rl. Количество информации, требуемое для спецификации одного признака, равно в среднем log2/?,- при условии, что все признаки равновероятны. Если они не равновероятны, то величину log2/?, нужно заменить какой-то информационной функцией H{Ri). Здесь вводится предположение о возможности когерентного считывания всей совокупности величин R, хотя в биологических процессах такая ситуация, вероятно, осуществляется редко. Однако это обстоятельство не имеет решающего значения, если в качестве вероятностей, участвующих в определении H(Ri), выбираются некоторые реальные характеристики процесса считывания. Поэтому, положив logzRi = H(Rt), мы можем считать, что количество информации, необходимое для спецификации данного объекта U в С, имеет вид Н(С) =N \og2Ri = N• Н(R{). Можно также считать, что H(Ri) есть среднее количество информации в расчете на один, признак, необходимое для спецификации данного объекта U.
Аналогичным образом пусть функциональные сигнатуры, так же как и совокупности В, определяются признаками, варьирующими в ограниченных пределах, Ra и Rb соответственно. Это может означать либо использование только части области изменения каждой переменной, либо использование всей этой области, но лишь для некоторых переменных. Тогда интересующее нас число сигнатур равно A=2N H(Ra), где H(Ra) есть среднее количество информации в расчете на один признак, требуемое для спецификации данной сигнатуры. Аналогичным образом мы полагаем, что H(Rb) равно среднему- количеству информации в расчете на один признак, требуемому для спецификации определенного члена данной совокупности В. Тогда //(/?&) равно также средней двусмысленности объекта при заданной сигнатуре,
a H(Ri)—H(Rb) равно уменьшению неопределенности объекта, если его сигнатура известна.
В теории информации эта величина определяет количество переданной информации в расчете на одну реакцию и на один признак и обозначается через Т(С; А). Тогда количество информации в расчете на один признак, передача которой должна обеспечить успешную функцию, будет равно H(Ra)\ разность Т(С; А) —
— H(Ra)=E есть излишняя информация в расчете на один признак и в среднем на одну реакцию. Отметим, что излишняя информация является избыточной, но не вся избыточная информация оказывается излишней. Сигнатура должна содержать некоторое минимальное количество избыточной информации, требуемое для преодоления описанной выше двузначности.
Окончательно мы получаем вероятность двусмысленности, равную eNB. Поскольку при выводе предполагалось, что отнесение объектов к совокупности В носит случайный характер, можно считать, что в оптимальных условиях мы получим, во всяком случае, не худший результат. При большом N случайный выбор обеспечивает хорошее приближение к оптимальным условиям. Отсюда следует, что при достаточно большом N (число признаков, определяющих сигнатуру) вероятность двусмысленности можно поддерживать пренебрежимо малой до тех пор, пока в системе останется хотя бы ничтожное количество излишней информации.
Предыдущая << 1 .. 9 10 11 12 13 14 < 15 > 16 17 18 19 20 21 .. 30 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed