Инвариантность информации обусловливает возможность использовать разные способы ее фиксации на разных носителях при осуществлении разных элементарных информационных актов – создания, передачи, приема, хранения и использования информации. Для перевода информации с одной системы записи на другую или для перекодировки во многих информационных системах существуют специальные устройства. Перевод информации с одного языка на другой или с одной системы записи на другую возможен только благодаря свойству инвариантности. Таким образом, именно инвариантность лежит в основе возможности понимания информации – перевода ее с чуждого языка (или способа записи) на язык (или способ записи), свойственный данной информационной системе. Свойство инвариантности информации по отношению к системе записи и природе носителя также означает, что результаты ее реализации (или использования) не зависят ни от того, ни от другого, а определяются лишь ее семантикой.
Ярчайшим примером инвариантности информации может служить наше понимание генетической информации и создание искусственных генов в соответствии с заранее составленным планом.
Инвариантность информации по отношению к носителям создает принципиальную возможность записи любой информации на одном и том же языке с помощью одного и того же алфавита, т. е. как бы сведения ее к единому знаменателю. Это, хотя и не явно, было использовано К.Шенноном при решении вопроса о способе определения количества информации. Для этого можно воспользоваться формулой (12)
где М - число букв в тексте, a i - порядковый номер одной буквы в алфавите, использованном для записи информации. Здесь k - коэффициент, величина которого зависит от выбора единиц измерения количества информации и основания логарифмов. Если Н выражать в битах, то при q = 2 величина k = 2. При использовании для записи информации бинарного кода (п = 2, р1 = ро = 0,5) величина Нм = М. Другими словами, количество информации, выраженное в битах, равно числу знаков бинарного алфавита, необходимому для ее записи.
Последнее утверждение далеко не тривиально. В основе его лежит, во-первых, свойство инвариантности информации по отношению к носителям; во-вторых, представление о емкости информационной тары; в-третьих, способ количественного измерения этой емкости, которым, по существу, и является формула Шеннона. Рассмотрим эти вопросы более внимательно.
Свойство инвариантности, как мы уже видели, позволяет утверждать, что одну и ту же информацию можно фиксировать любыми носителями. Носители информации – языки, алфавиты, способы фиксации и подложки – выступают как бы в роли информационной тары, которая может содержать информацию, причем любую. Если представление о количестве информации не лишено смысла, то отсюда следует, что для фиксации одного и того же количества информации с помощью разных носителей емкость используемой для этого информационной тары должна быть одной и той же. Полагая элементарные носители информации – отдельные буквы алфавита – дискретными, можно утверждать, что одну и ту же информацию, по меньшей мере в пределах одного и того же языка, можно записывать самыми разными алфавитами, содержащими разное число букв, в том числе и бинарным. Формула (1), показывающая, сколько битов информации содержится в некотором сообщении, по существу означает, что для записи этого сообщения бинарным кодом требуется М букв.
Формулу (1) можно записать несколько иначе, а именно (13):
Очевидно, что данная формула показывает, сколько знаков М алфавита, состоящего из п букв, требуется для записи данного количества Н информации. Очевидно, что в основе формулы (13) лежит формула (6), означающая, следовательно, сколько информации может вместиться в один из символов данного алфавита. Приняв в качестве единицы количества информации один бит и используя разные значения п и pi, легко убедиться, что информационная емкость отдельных символов может быть выражена любым числом, как целым, так и дробным, в том числе апериодическим. Это лучше согласуется с представлением о континуальности, нежели о дискретности самой информации, в отличие от единиц информационной тары.
Итак, мы пришли к выводу, что информационная емкость i-го символа любого алфавита, выраженная в битах, равна –log2pi, где pi есть частота встречаемости этого символа в данном языке. Это утверждение, выведенное из формулы (6) К. Шеннона, можно назвать правилом Шеннона.