«Передаваемую сигналом информацию, – писал Н. Винер[177]
, – возможно толковать как отрицание ее энтропии, как отрицательный логарифм вероятности». Степень упорядоченности множества зависит от числа элементов множества или от длины алфавита символов (состояний) и измеряется числом этих состояний (n) или его логарифмом (log n). Исходя из этих отношений, чем больше число элементов множества состояний носителя (источника), тем больше его неупорядоченность, тем больше неопределенность, снимаемая каждым из этих элементов, и, отсюда, тем больше упорядоченность соответствующего множества сигнала относительно множества – источника. «Поэтому упорядоченность сигнала как множества состояний носителя и количество заключенной в этом сигнале информации, – пишет Л. М. Веккер[178], – можно измерять неупорядоченностью множества состояний источника – обе меры могут быть выражены одной и той же числовой величиной». Совпадение меры количества информации с формулой термодинамической энтропии дало основание Шеннону, впервые предложившему приведенную выше формулу, распространить общефизический термин «энтропия» на величину количества информации, характеризующую в этом случае упорядоченность множества состояний источника. В рассматриваемой идеальной ситуации полного отсутствия шума энтропия источника целиком переходит в сигнал. По этому поводу Л. М. Веккер[179] высказался таким образом: «конкретизация основных исходных понятий термодинамики и статистической физики раскрыла органическую связь информации (как упорядоченности системы) с физической энтропией как величиной, которая, выражая тенденцию системы к наиболее вероятному состоянию неупорядоченности, вместе с тем характеризует разнокачественность различных форм энергии и связанную с этим меру необратимости процессов в системе».Тождество формул информации (негэнтропии) и энтропии (энергии) образует структурно-динамическую целостность феноменального мира. Связь, установленная между энергетическими и информационными показателями, есть проявление единства мира.
Тем самым выявлена глубокая связь понятия «информации» с фундаментальным общефизическим понятием «энергии», обладающим во всяком случае не меньшим рангом по уровню обобщения. Представляется, что высказанную проф. Л. М. Веккером и другими авторами мысль о глубокой связи «энергии» и «информации» можно уточнить. Эквивалентность энтропии и количества информации впервые отметил Л. Сциллард: сумма информации и энтропии при данном распределении вероятностей состояния постоянная и равна максимально получаемой информации или максимальной энтропии в данных условиях[180]
.Следовало бы говорить не о связи двух понятий, а о двух сторонах одного и того же физического явления: «кванте упорядоченного (неупорядоченного) пространства». Есть физическая реальность, представляющая собой некую структуру (систему, организацию). Структура есть форма связи элементов, ее составляющих[181]
. Если есть субъект, то он воспринимает эту структуру как меру упорядоченности системы – информацию, а оставшаяся в системе «неупорядоченность», энтропия, «остаток» антиэнтропийной тенденции – есть несвязанная энергия системы. Таким образом, это как бы две стороны одной медали. «Упорядоченность» системы или «кванта пространства» – двуликий Янус: это и «информация», с точки зрения субъекта, и потенциальная, уже связанная в данной системе энергия. Процесс упорядочивания, структурализация элементов системы, или самоорганизация, связан с энерго-информационным взаимодействием системы со средой. Это процесс усвоения организации внешней среды, ее энергии и порядка. Но для этого внешняя среда или другая внешняя система должна быть доступна самоорганизующейся системе, т. е. ее организация не должна намного превышать уровень сложности самоорганизующейся системы. Доступное окружение – необходимое условие развития самоорганизации.Так как мир можно рассматривать как «систему систем», где все друг с другом взаимосвязано, то и рассматривать информационные (структурные) характеристики одной системы нельзя вне их связи с энтропией окружающей среды: рост упорядоченности системы происходит за счёт роста энтропии в окружающей ее среде. В теории И. Пригожина[182]
энтропия становится прародительницей порядка, а система есть совокупность взаимосвязанных элементов. Таким образом, информация есть связанная активность, как бы связанная энергия системы.Энтропия, существующая в первозданном хаосе и в сегодняшней Вселенной, является, вероятно, реализацией той свободы, которой, по мысли Н. А. Бердяева[183]
и В. Н. Ильина[184], Бог наделил всякую тварь: от атома до человека.