Читаем Техногнозис: миф, магия и мистицизм в информационную эпоху полностью

Передать информацию — это не значит просто упаковать данные в конверт, а потом отправить их: информация — это нечто, что конструируется самим приемником. В этом смысле элемент «субъективности» неизбежно включается в любой коммуникационный цикл, потому что вопрос о том, сколько информации передано, зависит отчасти от того, как приемник (который может быть чисто механическим) сортирует потоки входящих сообщений. Для того чтобы объяснить роль, которую приемник играет в обработке информации, ученый и писатель Джереми Кэмпбелл использует пример трех студентов, слушающих лекцию профессора экономики. Только двое из них знают английский, и только один из них на самом деле студент-экономист. Для не говорящего по-английски, шумы, исходящие из уст профессора, настолько неопределенны и непредсказуемы, что никакой информации к нему не поступает. Благодаря одному только знанию языка оба говорящих по-английски студента воспринимают больше информации, но будущий менеджер инвестиционного фонда извлекает больше всех, потому что его предвидение экономических концепций и жаргона делает профессорские «дампы»[19] данных еще более предсказуемыми, хотя и все еще достаточно неожиданными, чтобы порождать новизну.

Сердцем информационной теории, таким образом, является вероятность, которая представляет собой меру возможности выбора одного специфического результата (артикля «the» или валета пик) из открытого поля возможных значений (английского языка или тасованной колоды карт). Вероятность играет огромную роль в предсказаниях, которые ученые имеют обыкновение делать по поводу существующего мира, но, даже если рассматривать их в качестве не лишенной смысла статистической науки, есть в них что-то от плутовства.[20] Вероятность обитает в зазоре между объективным и субъективным, случайностью и порядком, разумным знанием и тайными узорами мира — запутанной зоны, которую математик Джеймс Ньюман назвал «коварной западней». Четкие диаграммы теории информации начертаны на песках более зыбучих, чем кажется на первый взгляд.

Клод Шеннон открыл еще более устрашающую корзину со змеями, когда свел свою теорию к базовому уравнению и обнаружил, что его абстрактное техническое описание информации имеет точно такую же форму, как термодинамическое уравнение энтропии, которое физик Людвиг Больцман вывел в самом начале парового века. Как знает каждый поклонник творчества Томаса Пинчона, энтропия — это дурное путешествие, метафизический и экзистенциальный ребус, но, кроме того, неотменяемый закон космоса. В соответствии со знаменитым вторым законом Максвелла, поле битвы в итоге останется за энтропией: как бы ни была упорядочена и наполнена энергией закрытая система, ее энергия, консервируясь, неизбежно иссякнет, а ее форма распадется. Перемешайте несколько кубиков льда в горячей ванне, и вы увидите, как работает энтропия: кристальные решетки молекул замерзшей воды тают в сплошном случайном супе из Н2О. Хотя мы редко встречаемся с закрытыми системами в реальной жизни: дети, болота и Интернет — это, бесспорно, открытые системы. Второй закон термодинамики позволяет всем интересным вещам во Вселенной лишь недолго держаться на плаву до тех пор, пока их не втягивает в поток холодного аморфного моря все-успокаивающего беспорядка. Больше, чем какая-либо другая сила в физике, энтропия поражает сознание как некий темный и древний рок, воплощенный в законе природы.

На первый взгляд тот факт, что описание информации, предложенное Шенноном, совпадает с описанием столь значимых физических процессов, выглядит как синхрония, рожденная в космическом центре контроля за совпадениями. Настоящие причины этого замечательного точного сходства довольно сложны, но суть вертится вокруг вероятности. С одной стороны, мы можем сказать, что, чем более непредсказуемой является система, в которой возникает потенциальное сообщение, то есть чем больше у нее свойств случайного шума, тем больше энтропии в системе. В этом смысле она напоминает ванну с горячей водой после того, как кубики льда растаяли. С другой стороны, мы с тем же основанием можем сказать, что непредсказуемые системы в действительности богаты информацией, так как любое отдельное сообщение, которое мы получаем, с большой вероятностью будет для нас новостью. Эта двойственность объясняет тот факт, что, в то время как Шеннон описывал информацию как энтропию, король математики и крестный отец кибернетики Норберт Винер противопоставлял эти два термина, утверждая, что информация — это мера организации, паттерн, форма, связность, в то время как энтропия означает меру случайности и дезорганизации в системе.

Перейти на страницу:
Нет соединения с сервером, попробуйте зайти чуть позже