Читаем Открытое произведение. Форма и неопределенность в современной поэтике полностью

Следовательно, в таком случае информация связывается не с порядком, а с неупорядоченностью, по крайней мере, с определенным не-порядком, который непривычен и который нельзя предугадать. Мы говорили о том, что положительным измерением такой информации – поскольку она отличается от смысла (significato) – является энтропия. Но если энтропия оказывается максимальной неупорядоченностью и внутри нее наблюдается сосуществование всяческих вероятностей и никакой именно, тогда информация, содержащаяся в намеренно организованном сообщении (поэтическом или обычном) предстает лишь весьма своеобразной формой неупорядоченности – неупорядоченности, которая кажется таковой, поскольку берет начало в предшествовавшем ей порядке. Можно ли в этой связи по-прежнему говорить об энтропии?

Передача информации

Вернемся ненадолго к классическому примеру из кинетической теории газов: представим сосуд, наполненный молекулами газа, которые движутся с одинаковой скоростью. Если движение регулируется статистическими законами, энтропия системы очень высока, и – даже если мы можем предсказать общее поведение системы – нам нелегко предугадать, каким будет следующее положение той или иной молекулы; иными словами, молекула может двигаться самыми разными путями, она, так сказать, открыта всем возможностям, мы знаем, что она может занять самые разные положения, но не знаем, какие именно. Для того, чтобы лучше определить поведение отдельных молекул, нам потребовалось бы дифференцировать их скорость, одним словом, придать системе порядок и уменьшить в ней энтропию – таким образом, мы увеличим вероятность того, что молекула будет вести себя так, а не иначе, но ограничим число ее изначальных разнообразных возможностей (подчинив их определенному коду).

Итак, если я хочу что-либо знать о поведении отдельной частицы, информация, которую я ищу, противостоит энтропии, но если я хочу знать все возможные варианты поведения любой частицы, тогда информация, которую я ищу, будет прямо пропорциональна энтропии; привнося в систему порядок и уменьшая энтропию, я узнаю о системе многое в каком-то одном смысле, но значительно меньше в другом.

То же самое происходит и с передачей информации.

Постараемся это пояснить ссылкой на формулу, с помощью которой обычно выражается величина какой-либо информации:

I = N log h,

где h представляет собой число элементов, из которых делается выбор, а N – количество вариантов выбора, которые можно сделать (в случае с двумя игральными костями h = 6, а N = 2; если же мы имеем шахматную доску, то h = 64, a N = ходы, которые допускаются правилами шахматной игры).

Если же речь идет о системе с высокой энтропией (где могут осуществиться все комбинации), значения величин N и h оказываются очень большими и, следовательно, самым высоким оказывается и количество той информации о поведении одного или нескольких элементов системы, которое можно было бы передать. Однако очень трудно сообщить столько бинарных вариантов выбора, сколько необходимо для того, чтобы обособить выбранный элемент и определить его сочетания с другими элементами.

Каким образом можно легко сообщить ту или иную информацию? Это можно сделать, сокращая число задействованных элементов и вариантов выбора, вводя какой-либо код, систему правил, которая предусматривает наличие строго определенного числа элементов, исключает некоторые комбинации и допускает лишь оговоренные. В этом случае можно будет сообщить информацию через разумное число бинарных вариантов выбора. Однако значения величин N и h в таком случае уменьшаются и, следовательно, уменьшается величина полученной информации.

Таким образом, чем больше информации, тем труднее ее сообщить, и чем яснее какое-либо сообщение, тем меньше в нем информации.

Вот почему в своем классическом труде по теории информации{56} Шеннон и Уивер осмысляют информацию как величину, прямо пропорциональную энтропии. Другие исследователи тоже признают, что Шеннон, один из основателей этой теории, обращает внимание именно на этот аспект информации{57}, но все они напоминают о том, что, если мы понимаем информацию в узкостатистическом смысле, она не имеет отношения к тому, истинно или ложно содержание сообщения (не имеет отношения к его «значению»). Мы лучше все это усвоим, если обратимся к некоторым высказываниям Уоррена Уивера, которые содержатся в его очерке, посвященном популяризации математического аспекта информации:{58} «В этой новой теории слово “информация” относится не столько к тому, что говорится, сколько к тому, что могло быть сказанным, то есть информация выступает как мера нашей свободы в выборе сообщения… Необходимо помнить, что в математической теории коммуникации наш интерес обращен не к значению отдельных сообщений, а к общей статистической природе источника информации…

Перейти на страницу:

Похожие книги

Загробный мир. Мифы о загробном мире
Загробный мир. Мифы о загробном мире

«Мифы о загробной жизни» — популярный пересказ мифов о загробной жизни и загробном мире и авторский комментарий к ним. В книгу включены пересказы героических европейских, и в частности скандинавских, сказаний о героях Вальхаллы и Елисейских полей, античных мифов и позднейших христианских и буддийских «видений» о рае и аде, первобытных мифов австралийцев и папуасов о селениях мертвых. Центральный сюжет мифов о загробном мире — путешествие героя на тот свет (легший позднее в основу «Божественной комедии» Данте). Приведены и рассказы о вампирах — «живых» мертвецах, остающихся на «этом свете (в том числе и о знаменитом графе Дракула).Такие виды искусства, как театр и портретные изображения, также оказываются связанными с культом мертвых.Книга рассчитана на всех, кто интересуется историей, мифами и сказками.

Владимир Яковлевич Петрухин

Культурология / Образование и наука