Научная литература
booksshare.net -> Добавить материал -> Биология -> Полетаев И.А. -> "Сигнал о некоторых понятиях кибернетики" -> 36

Сигнал о некоторых понятиях кибернетики - Полетаев И.А.

Полетаев И.А. Сигнал о некоторых понятиях кибернетики — Советское радио, 1958. — 413 c.
Скачать (прямая ссылка): signal1958.djvu
Предыдущая << 1 .. 30 31 32 33 34 35 < 36 > 37 38 39 40 41 42 >> Следующая

Физическая энтропия определяется обычно только для физических явлений, связанных с молекулярными процессами (тепловые явления, диффузия, химические реакции). Но не только такие явления могут служить источниками информации. Можно, по-видимому, воспользовавшись понятием информационной энтропии, обобщить понятие физической энтропии на более широкий круг явлений—всех явлений, могущих быть источником сообщений, или же ввести некоторое новое понятие, служащее для той же цели.
Именно таким путем было введено появившееся недавно понятие организации, которое применимо к широкому кругу объектов или систем и которое дает числовую меру статистических связей отдельных элементов, входящих в систему.
Интуитивно мы отождествляем отсутствие организации с хаосом. Пусть мы имеем некоторую систему, состоящую из отдельных частей или элементов, не обязательно однородных. Такой системой может быть не только совокупность молекул физического тела, но и собрание клеток в ткани живого организма, механизм, состоящий из связанных между собою • твердых тел, производственное предприятие, состоящее из отдельных цехов, коллектив людей, воинское соединение, состоящее из подразделений, и т. д.
94
Каждый из элементов в процессе существования или деятельности системы может принимать некоторое множество состояний, над которым задано распределение вероятностей. Если все элементы системы разобщены и состояние одного никак не влияет на состояния других, словом, если элементы независимы, то очевидно, что система является предельно неорганизованной. Другим предельным случаем является такой, когда состояние одного элемента однозначно определяет состояния всех остальных.
Подсчитаем обычным образом энтропию множества состояний каждого элемента системы Хг
п
1
где k=l9 2, — число возможных состояний элемен-
та Х1 и Р к — вероятность элементу X. оказаться в состоянии k.
Подсчитаем теперь энтропию системы в целом. В случае независимости элементов в предельно неорганизованной системе общая энтропия будет максимальна и равна сумме энтропий отдельных элементов. Так, для системы, состоящей из двух элементов
Н0(Х1,Х2) = Н(Х1) + Н(Х2).
Если в системе устанавливаются связи элементов и взаимные влияния, т. е. если система организуется, то общая энтропия становится меньше суммы энтропий элементов. В соответствии с (4.20), (4.21)
Я, (ХМ = Н (xi) + * № I Х}) = Н (Х2) +
+ Н(Х1\Х2)^Н(Х1)+Н(Х2).
В результате организации системы ее энтропия Ях понизилась по сравнению с максимальной энтропией Н0. Это уменьшение энтропии может служить числовой мерой степени организованности системы Д.
д = Я0 - Я, = Я (Хг) + Я (Х2) - Я, (ХиХ2) (4.29) или, согласно (4.23),
А = Н(Х1)-Н(Х1\Х2) = Н(Х2)-Н(Х2\Х,) =
= Нх (ХиХ2) -Н(Х2\ Хх) ~ Я (Х{ | Х2). (4.30)
95
Мы снова пришли к негэнт.ропии, как и в случае передачи информации по каналу связи. Передача информации является, таким образом, частным случаем организации.
Рассмотрим простой пример. Пусть мы имеем систему, состоящую из двух элементов. Множество возможных состояний каждого есть отрезок прямой, над которым задано распределение вероятностей (или плотность вероятности) . Распределение вероятностей состояний системы будет задано над прямоугольником, стороны которого суть отрезки, соответствующие множествам состояний элементов.
Для неорганизованной системы распределение плотности вероятности над прямоугольником есть просто произведение плотностей вероятности -на отрезках. При максимальной организации совместное распределение стягивается в линию. Промежуточный случай соответствует преимущественному группированию вероятности в области вокруг линии (рис. 4.3).
Максимальная организация системы соответствует, таким образом, соотношениям функционального типа между состояниями элементов и системы в целом. Уменьшение организации ведет к тому, что выбор определенного состояния одного элемента еще не определяет однозначно состояний остальных. Каждый элемент имеет еще некоторую «свободу», т. е. состояние его остается случайным и лишь статистически связанным с состояниями остальных. При полной дезорганизации все элементы становятся независимыми.
Для физических систем уменьшение организации соответствует ’повышению физической энтропии (уменьшению негэнтропии).
Механизм с разболтанными шарнирами обладает меньшей организацией по сравнению с механизмом, у которого шарниры пригнаны точно. На заводе, обладающем высокой организацией, цехи работают строго согласованно по времени, номенклатуре и качеству изделий. Разброс качества изделий определяется только разбросом качества сырья. Цехи завода, обладающего низкой организацией, работают вразброд (то недодавая другим цехам полуфабрикаты, то забивая ими промежуточные склады), несогласованно во времени, с большим количеством брака. Из хорошего сырья такой завод производит много некондиционных и бракованных изделий.
Предыдущая << 1 .. 30 31 32 33 34 35 < 36 > 37 38 39 40 41 42 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed