Читаем Хаос. Создание новой науки полностью

Исследования хаоса, проведенные в Санта-Крусе, наиболее существенно затронули тот раздел математики, в котором присутствует изрядная доля философии и который называется теорией информации. Эта теория была создана в конце 40-х годов Клодом Шенноном, американским инженером, трудившимся в лабораториях компании «Белл телефон». Он назвал свою работу «Математическая теория коммуникации», но поскольку речь в этом труде шла об особом предмете, называемом информацией, за новой дисциплиной закрепилось наименование «теория информации». То был продукт века электроники. Линии связи и радиопередачи несли в себе нечто определенное, в недалеком будущем компьютерам предстояло хранить это «нечто» на перфокартах, магнитных цилиндрах и в оперативной памяти, и все же оно не являлось знаниями и само по себе не обладало смыслом. Основными единицами этого загадочного предмета являлись не идеи, не понятия и даже не всегда слова или числа. Независимо от того, нес ли он в себе смысл или бессмыслицу, инженеры и математики могли его измерять, пересылать по линиям передач и проверять такие передачи на точность. Слово «информация» было таким же словом, как и все остальные, но люди должны были запомнить, что они используют специальный термин, не освященный фактическим доказательством, учением, мудростью, пониманием и просвещением.

Технические средства ввели в рамки предмет изучения теории. Поскольку информация хранилась в ячейках компьютерной памяти в двоичном представлении, один разряд такой ячейки, содержащий единицу или ноль (что соответствует понятиям «да» и «нет») и названный битом, стал основной мерой информации. С технической точки зрения теория информации превратилась в инструмент, который помогал выяснить, каким образом шумы в форме случайных помех препятствуют плавному потоку битов при передаче. Теория подсказывала способ определения необходимой пропускной способности коммуникационных каналов, компакт-дисков или прочих продуктов технологии, кодировавшей язык, звуки и зрительные образы. Она указывала пути исчисления эффективности различных схем коррекции ошибок, в частности применения некоторых битов для проверки остальных. Наконец, она исследовала такое важнейшее понятие, как «избыточность». Согласно теории информации Шеннона обычный язык более чем на 50 % избыточен, т. е. содержит звуки или буквы, которые не являются строго необходимыми для передачи сообщения. Знакомая идея, не правда ли? Надежность связи в мире, где невнятно проговаривают слова и допускают опечатки, существенным образом зависит от избыточности. Известная всем реклама курсов стенографии «если в мжт прчть здс сбщн» наглядно демонстрирует выдвинутое утверждение, а теория информации позволяет дать количественную оценку данного феномена. Избыточность являет собой предсказуемое отклонение от случайного. В повседневном языке она проявляется в повторяемости значений, которое весьма сложно изменить — мера ее зависит от того, как избыточность сказывается на знаниях людей о собственном языке и мире. Именно элемент избыточности помогает людям решать кроссворды или вставлять пропущенное слово, если оно заканчивается, к примеру, буквой «а». Есть и другие типы избыточности, больше пригодные для численных измерений. Согласно статистическим данным, вероятность того, что взятой наугад буквой английского языка окажется буква «e», гораздо выше 1/26 (в английском алфавите 26 букв). К тому же не стоит рассматривать буквы как изолированные единицы. К примеру, зная, что в английском тексте есть буква «t», можно предположить, что за ней следует буква «h» или «о», а идентификация уже двух букв позволяет строить дальнейшие догадки. Частотность употребления комбинаций из двух или трех букв определяется особенностью того или иного языка. Компьютер, руководствуясь одной лишь частотностью трехбуквенных сочетаний, может выдать бессмысленный текст, но это будет узнаваемо английская бессмыслица. Криптологи долгое время использовали статистический принцип при расшифровке простых кодов. Сейчас инженеры, работающие в сфере коммуникаций, применяют его к технологиям сжатия данных и устранения избыточности, чтобы экономить пространство передающей линии или дискового накопителя. По Шеннону, нужно рассматривать эти модели, руководствуясь следующими соображениями: поток информации в обычном языке является менее чем случайным; каждый новый бит частично ограничен предшествующими; таким образом, каждый новый бит несет в себе в некоторой степени меньше содержания, чем тот, что заключает в себе реальную информацию. В такой формулировке просматривается некий парадокс: чем выше доля случайности в потоке данных, тем больше информации будет передано каждым новым битом.

Перейти на страницу:

Похожие книги