Но из другого источника, от людей, настроенных совсем иначе, поступили новые вопросы. Лучше всего они отражены в беседе, состоявшейся между Шенноном и фон Нейманом в Принстоне в 1940 году, когда Клод только начинал собирать свою теорию воедино и еще переживал по поводу своего распавшегося брака. Шеннон поделился с этим великим человеком своей идеей «информации как средства устранения неопределенности», легшей в основу его работы, и задал простой вопрос. Как бы он назвал это? Фон Нейман ответил сразу же: скажем, информация уменьшает «энтропию». Во-первых, это хорошее, емкое слово. «И еще более важно, – продолжал он, – что никто не знает, что такое энтропия на самом деле, поэтому в споре вы всегда будете иметь преимущество».
Скорее всего, этого разговора никогда не было. Но великая наука, как правило, рождает свои собственные легенды, и эта история практически совпадает по времени с появлением научной статьи Шеннона. Ее пересказывали на семинарах, лекциях и в книгах, а сам Шеннон вынужден был отмахиваться от нее на конференциях и во время интервью, отшучиваясь в свойственной ему манере. Эта история так долго была на устах – и сейчас мы снова пересказываем ее, – потому что связь между информацией и энтропией наводила на размышления[10]
. Одни жаждали того, чтобы теория Шеннона работала, другие высказывали предположения о том, что в этой работе скрываются истины гораздо более глубокие, чем мог признать сам автор.Никто не знает, что же такое энтропия на самом деле. Определение звучало масштабно, но понятие энтропии включало множество вещей – почти столько же, сколько само понятие информации, – причем какие-то были научно обоснованными, а какие-то нет. Это была неспособность парового двигателя работать; рассеивание тепла и энергии; неизменная тенденция каждой части закрытой системы деградировать, превращаясь в отработанную породу; это также была, если говорить грубо, но емко, тенденция в сторону беспорядка, хаоса. Это всегда зарождающийся разброд, против которого мы боремся, чтобы выжить. Джеймс Глейк выразился более лаконично: «Организмы организуются». И продолжал:
В погоне за этим порядком мы делаем нашим мир менее информативным, потому что сокращаем количество доступной для нас неопределенности. Предсказуемость нашей связи, в этом свете, – это символ еще большей предсказуемости. Все мы, люди, предсказуемые машины. Мы воспринимаем себя как неустанных созидателей и потребителей информации. Но, по логике Шеннона, все ровно наоборот: мы высасываем информацию из мира.
Но здесь мы терпим неудачу. Тепло рассеивается; беспорядок со временем увеличивается; энтропия, как говорят нам физики, всегда движется по восходящей. В состоянии максимальной энтропии любая предсказуемость отпала бы сама собой: каждая частица была бы сюрпризом. И весь мир в целом читался бы как самое информативное сообщение из всех существующих.
Возникает один нерешенный вопрос: была ли идея об информации как энтропии неуместной и бесплодной аналогией, или это был более менее подходящий язык, на котором можно было говорить о мире? Или же сама информация была настолько фундаментальным понятием, что даже физики могли оценить ее? Когда частицы перемещаются из одного состояния в другое, является ли их похожесть на переключатели, на логические схемы, на символы 0 и 1 чем-то большим, чем просто причуда нашего воображения? Или сформулируем это иначе: было ли свойство информации чем-то, что мы навязывали миру, как побочный продукт наших сообщений и машин, или это что-то, что мы узнали о мире, что-то, что постоянно присутствовало в нем всегда?
Тепло рассеивается; беспорядок со временем увеличивается; энтропия, как говорят нам физики, всегда движется по восходящей.