Читаем Информация как основа жизни полностью

3. мутабилъностью, которая всегда сопутствует самовоспроизведению. Ошибки копирования – основной источник новой информации. Образование и отшлифовка эйгеновских гиперциклов привели к созданию аппарата трансляции. Образование вслед за этим клеточной мембраны завершило предбиологический период эволюции.

Семантика

Вернемся снова к формуле Шеннона (6) и проанализируем текст "Завтра будет буря". Действительно, осмысленность или информация текста "Завтра будет буря" очевидна. Достаточно, однако, сохранив все элементы (буквы) этого сообщения, переставить их случайным образом, например, "рдеа Звубуб траяи", как оно утратит всякий смысл. Но бессмысленной информации не бывает. Согласно же формуле (7) оба предложения содержат одинаковое "количество информации". О какой же информации здесь идет речь? Или, вообще, можно ли говорить об информации по отношению к разрозненным элементам сообщения?..

Очевидно, отдельные элементы сообщения можно назвать "информацией" лишь при условии, если перестать связывать информацию с осмысленностью, т. е. с содержательностью. Но тогда это бессодержательное нечто вряд ли стоит называть "информацией", вкладывая в первичный термин несвойственный ему смысл. Учитывая, однако, что элементы сообщения реально используются для составления осмысленных текстов, содержащих информацию, эти элементы (буквы, сигналы, звуки) удобнее трактовать как информационную тару, которая может содержать информацию, а может быть и бессодержательной, пустой [21]. Очевидно, что емкость тары зависит от того, заполнена ли она и чем она заполнена. Поэтому частотную характеристику элементов сообщения

лучше называть не "количеством информации", а "емкостью информационной тары". Это, кстати, хорошо согласуется с формулой К. Шеннона (7), по которой "количество информации" в данном сообщении не зависит от порядка следования составляющих его букв, а только от их числа и частотных характеристик.

Однако здесь резонно возникает вопрос, насколько обоснованно считать

емкостью i-го элемента информационной тары? Судя по работе [3], такой способ измерения количества информации введен скорее из соображений удобств. Коэффициент k здесь играет подсобную роль – его величина зависит от выбора единицы измерения количества информации (или емкости тары) и основания логарифма. Как мы уже отмечали, если за такую единицу принять бит, т. е. информационную емкость одного элемента стандартного бинарного кода, когда р1 = р2 = 0.5, а за основание логарифмов "2", то k=1, и тогда формула (7) приобретет вид Нм = М. В общем же случае эту формулу можно записать как (1), что по смыслу своему представляет собой не что иное, как расчет числа букв бинарного кода, требующегося для записи данного сообщения. При такой интерпретации выбор единицы измерения емкости тары и способа определения этой емкости приобретает обычное звучание, – но, конечно, лишь при условии максимальной компактности кода (когда реже встречающиеся в языке символы заменяются большим числом букв бинарного кода, чем чаще встречающиеся) и только в пределах данного разговорного языка. Сохранится ли это правило перехода от одного кода к другому для разных разговорных языков? А также от одного языка к другому?

Заметим, однако, два обстоятельства в данном примере текста "Завтра будет буря". Первое – текст понятен русскому, но является "китайской грамотой" для китайца. Это говорит о том, что каждый раз, когда мы говорим о семантике, необходимо иметь в виду семантическое родство сообщения и воспринимающей системы.

Второе обстоятельство касается того, что текст – замкнутая система.

Перейдем к открытым динамическим системам. Как мы уже отмечали, в таких системах будут возникать параметры порядка, именно они станут "семантикой информации", адекватной внешней среде. На основании этой новой информации будет идти естественный отбор на выживание этих организованных систем. Дарвиновский отбор накладывает ограничения на объекты всех уровней – физические, химические, биологические и другие [22]. В биологических системах первым уровнем дарвиновского отбора является генетический отбор. В этой монографии мы будем рассматривать биологические системы, начиная с генетической – живой клетки.

<p>Литература</p>

1. Налимов В. В. Вероятностная модель языка. М., "Наука". 1979.

2. Винер Н. Кибернетика, или управление и связь в животном и машине. М., Советское радио, 1968.

3. Шеннон К. Математическая теория связи. В кн.: Работы по теории информации и кибернетике. М., Изд. ин. лит., 1963. С. 243-496.

4. Шредингер Э. Что такое жизнь с точки зрения физика? М., Гос. изд. ин. лит. 1947.

5. Бриллюэн Л. Наука и теория информации. М., Гос. изд. физ.-мат. лит., 1960.

6. Бриллюэн Л. Научная неопределенность и информация. М., "Мир", 1966.

7. Шеннон К. Бандвагон. В кн.: Работы по теории информации и кибернетике. М., Изд. ин. лит., 1963, С. 667-668.

8. Голдман С. Теория информации. М., Изд. ин. лит., 1957.

9. Стратанович Р. Л. Теория информации. М., "Советское радио", 1975.

10. Яглом А. М., Яглом И. М. Вероятность и информация. М., "Наука", 1973

Перейти на страницу:

Похожие книги