Весьма ценная в техническом плане для начала компьютерной эры, теория информации Шеннона мало что привнесла в философию. Главный ее вклад, привлекший внимание специалистов других областей, выражается одним-единственным термином — энтропия. Как объяснял Уоррен Уивер в классическом изложении теории информации, «человек, впервые сталкивающийся с понятием энтропии в теории коммуникаций, вправе ощутить волнение, он вправе заключить, что встретил нечто основополагающее, важное». Концепция энтропии восходит к термодинамике; она фигурирует во втором законе, гласящем, что Вселенная и каждая отдельная система в ней неизбежно стремятся к нарастанию беспорядка. Разделите бассейн на две части, поставив между ними перегородку. Наполните одну часть водой, а другую — чернилами. Дождитесь, пока поверхность успокоится, а затем снимите перегородку. Вы увидите, что лишь посредством случайного перемещения молекул вода и чернила со временем перемешаются. Этот процесс никогда не повернет вспять, сколько ни жди — хоть до конца света. Именно поэтому считается, что второй закон термодинамики уподобил время одностороннему уличному движению. Энтропия — наименование того свойства систем, которое увеличивается согласно второму закону, — смешения, беспорядочности, случайности. Это понятие легче постичь интуитивно, не пытаясь измерить его в реальной жизни. Как с достаточной степенью достоверности можно оценить уровень смешения двух веществ? Во-первых, можно пересчитать молекулы каждого из них в отдельно взятой пробе; но как быть, если они организованы по принципу «да — нет — да — нет— да — нет — да — нет», подобно данным в линиях передач и компьютерной памяти? В этом случае вряд ли можно измерить энтропию с желаемой точностью. Другой способ заключается в подсчете только молекул «да — нет», но что делать, если они расположены по схеме «да — нет— нет — да — да — нет — нет — да»? К сожалению, строгий пересчет не поддается несложной алгоритмизации.
Роберт Шоу узрел в аттракторах движущую силу информации. Согласно его первоначальной и главнейшей концепции, хаос указывает естественный путь возврата к живым физическим наукам, к тем идеям, которые теория информации почерпнула из термодинамики. Странные аттракторы, соединяющие порядок и беспорядочность, придали новую значимость измерению энтропии систем. Они являются эффективными смесителями, которые создают непредсказуемость и таким образом повышают энтропию. По представлениям Шоу, они порождают информацию там, где ее ранее не существовало.
Однажды Норман Паккард, читая журнал «Американская наука», наткнулся на сообщение о конкурсе очерков, объявленном Луи Жако. Стоило подумать об участии: Жако, французский финансист, который выдвинул собственную теорию, касавшуюся структуры Вселенной, обещал победителю солидный приз. В конкурсе могли участвовать любые очерки, так или иначе соответствовавшие теме Жако. («Они получат груды писем от всяких чудаков», — предрекал Фармер.) Состав жюри впечатлял: туда входили светила французской науки. Паккард показал объявление Шоу. Работу нужно было представить на конкурс не позднее первого января 1978 г.
К этому времени члены группы регулярно встречались в большом старом доме недалеко от побережья. Сюда натаскали много мебели с блошиного рынка и компьютерного оборудования, применявшегося в основном для работы над теорией рулетки. Шоу держал там пианино, на котором наигрывал мелодии эпохи барокко или просто импровизации на классические и современные темы. Встречаясь у побережья, физики выработали собственный стиль исследований: процедуру оценки идей, просеивания их сквозь «сито» целесообразности, штудирования литературы и написания своих работ. В конечном счете молодые люди научились сотрудничать с журналами довольно эффективным образом, встав на путь коллективного творчества. Впрочем, первая статья была подписана именем Шоу (то была одна из немногих его работ), и он написал ее сам. И что характерно, подал с опозданием.