Но энтропия — это не само число вариантов, в данном случае — не 2110. Она равна просто 110—числу раз, сколько надо помножить на себя двойку, чтобы получить количество вариантов. В математике количество перемножений двойки на себя, необходимое для получения определенного числа, называют
Из 2110 возможностей лишь очень небольшая доля представляет собой осмысленные фразы. Допустим, что их миллиард. Чтобы получить миллиард, надо возвести двойку в 30-ю степень. Иными словами, миллиард — это около 230, или, что эквивалентно, логарифм миллиарда равен 30. Отсюда следует, что энтропия осмысленного предложения всего лишь около 30, что намного меньше 110. Бессмысленные цепочки символов, очевидно, имеют большую энтропию, чем комбинации, составляющие осмысленные фразы. Неудивительно, что энтропия возрастает, когда буквы перемешиваются.
Предположим, компания BMW подняла управление качеством до такого уровня, что все автомобили, сходящие с конвейера, абсолютно идентичны. Иными словами, допустим, что существует одна, и только одна комбинация атомов, которая может считаться истинным BMW. Какова будет ее энтропия? Ответ — ноль. Когда такой BMW сходит с конвейера, в нем не будет никакой неопределенности. Когда задан единственный уникальный вариант, энтропии вообще нет.
Второе начало термодинамики, которое говорит, что энтропия возрастает, это просто утверждение, что с течением времени мы теряем контроль за деталями. Представьте, что мы уронили крохотную каплю черных чернил в ванну с теплой водой. Вначале мы точно знаем, где находятся чернила. Число возможных конфигураций чернил не так велико. Но по мере того как мы следим за диффузией чернил в воде, мы все меньше и меньше знаем о местоположении отдельных молекул чернил. Число вариантов, отвечающих тому, что мы видим, а именно в ванне с однородной, слегка посеревшей водой, становится колоссальным. Можно ждать и ждать, но мы не увидим, как чернила вновь соберутся в концентрированную каплю. Энтропия возрастает. Это второе начало термодинамики. Все стремится к скучной однородности.
Вот еще один пример — ванна, полная горячей воды. Как много мы знаем о воде в ванне? Предположим, что она налита в ванну достаточно давно и все заметные течения прекратились. Можно измерить количество воды в ванне (190 литров) и ее температуру (32 градуса Цельсия). Но ванна заполнена молекулами вводы, и, очевидно, очень большое число вариантов размещения молекул соответствует заданным условиям —190 литров воды при 32 градусах Цельсия. Мы сможем узнать намного больше, только если точно обмерим каждый атом.
Энтропия — это мера того, сколь много информации скрыто в деталях, которые по той или иной причине трудно наблюдать. Таким образом,
Что случится с энтропией, если вода охладится до температуры абсолютного нуля? Если отвести от воды всю без исключения энергию, молекулы сами соберутся в уникальную структуру — решетку, которая образует идеальный кристалл льда.
И хотя молекулы слишком малы, чтобы их видеть, если вы знакомы со свойствами кристаллов, то сможете предсказать положение каждой молекулы. Идеальный кристалл, подобно идеальному BMW, вообще не имеет энтропии.
Неоднозначности и тонкие нюансы в использовании языка часто бывают очень важны. Фактически, если бы слова имели идеально точные значения, которые можно заложить в компьютер, язык и литература сильно обеднели бы. Однако научная точность требует высокой степени лингвистической строгости. Слово «информация» означает много разных вещей:
Давайте поразмыслим над этой идеей локализации. Если я скажу вам, что президент Грант похоронен в мавзолее Гранта, вы не усомнитесь, что я сообщил вам порцию информации. Но где находится эта информация? В вашей голове? В моей голове? Она слишком абстрактна, чтобы иметь местоположение? Она рассредоточена по всей Вселенной для использования везде и всеми?