Читаем Большая Советская Энциклопедия (ИН) полностью

равносильное (1), даёт ту же И., то есть (1) и (3) — это различные формы задания одной и той же И.

  Пример 3. Результаты произведённых с ошибками независимых измерений какой-либо физической величины дают И. о её точном значении. Увеличение числа наблюдений увеличивает эту И.

  Пример 3 а. Среднее арифметическое результатов наблюдений также содержит некоторую И. относительно рассматриваемой величины. Как показывает математическая статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И.

  Пример 4. Пусть результатом некоторого измерения является случайная величина X . При передаче по некоторому каналу связи X искажается, в результате чего на приёмном конце получают величину Y = X + q, где q не зависит от X (в смысле теории вероятностей). «Выход» Y даёт И. о «входе» X ; причём естественно ожидать, что эта И. тем меньше, чем больше дисперсия случайной ошибки q.

  В каждом из приведённых примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1—3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности некоторых соотношений. В примерах 3 а и 4 этот смысл требует уточнения. Это уточнение даётся, соответственно, математической статистикой и теорией И. (для которых эти примеры являются типичными).

  В основе теории информации лежит предложенный в 1948 американским учёным К. Шенноном способ измерения количества И., содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно другого случайного объекта. Этот способ приводит к выражению количества И. числом. Положение можно лучше объяснить в простейшей обстановке, когда рассматриваемые случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть X — случайная величина, принимающая значения x 1 , x 2 ,..., xn с вероятностями p 1 , p 2 ,..., pn , а Y — случайная величина, принимающая значения y 1 , y 2 ,..., ym с вероятностями q 1 , q 2 ,..., qm . Тогда И. I (X ,Y ) относительно Y , содержащаяся в X , определяется формулой

где pij — вероятность совмещения событий X = xi и Y = yj и логарифмы берутся по основанию 2. И. I (X , Y ) обладает рядом свойств, которые естественно требовать от меры количества И. Так, всегда I (X , Y ) ³ 0 и равенство I (X , Y ) = 0 возможно тогда и только тогда, когда pij = pi qj при всех i и j, т. е. когда случайные величины X и Y независимы. Далее, всегда I (X , Y ) £ I (Y , Y ) и равенство возможно только в случае, когда Y есть функция от X (например, Y = X 2 и т. д.). Кроме того, имеет место равенство I (X , Y ) = I (Y , X ).

  Величина

носит название энтропии случайной величины X . Понятие энтропии относится к числу основных понятий теории И. Количество И. и энтропия связаны соотношением

I (X , Y ) = H (X ) + H (Y ) — H (X , Y ),                              (5)

где H (X , Y ) — энтропия пары (X , Y ), т. е.

Величина энтропии указывает среднее число двоичных знаков (см. Двоичные единицы ), необходимое для различения (или записи) возможных значений случайной величины (подробнее см. Кодирование , Энтропия ). Это обстоятельство позволяет понять роль количества И. (4) при «хранении» И. в запоминающих устройствах. Если случайные величины X и Y независимы, то для записи значения X требуется в среднем H (X ) двоичных знаков, для значения Y требуется H (Y ) двоичных знаков, а для пары (X , Y ) требуется Н (Х ) + H (Y ) двоичных знаков. Если же случайные величины X и Y зависимы, то среднее число двоичных знаков, необходимое для записи пары (X , Y ), оказывается меньшим суммы Н (Х ) + H (Y ), так как

H (X , Y ) = H (X ) + H (Y ) — I (X , Y ).

  С помощью значительно более глубоких теорем выясняется роль количества И. (4) в вопросах передачи И. по каналам связи. Основная информационная характеристика каналов, так называемая пропускная способность (или ёмкость), определяется через понятие «И.» (подробнее см. Канал ).

  Если X и Y имеют совместную плотность p (x , y ), то

где буквами р и q обозначены плотности вероятности Х и Y соответственно. При этом энтропии Н (X ) и Н (Y ) не существуют, но имеет место формула, аналогичная (5),

I (X , Y ) = h (X ) + h (Y ) — h (X , Y ),                                           (7)

где

дифференциальная энтропия X [h (Y ) и h (X , Y ) определяется подобным же образом].

  Пример 5. Пусть в условиях примера 4 случайные величины X и q имеют нормальное распределение вероятностей с нулевыми средними значениями и дисперсиями, равными соответственно s2 х и s2 q . Тогда, как можно подсчитать по формулам (6) или (7):

Таким образом, количество И. в «принятом сигнале» Y относительно «переданного сигнала» X стремится к нулю при возрастании уровня «помех» q (т. е. при s2 q ® ¥) и неограниченно возрастает при исчезающе малом влиянии «помех» (т. е. при s2 q ® 0).

Перейти на страницу:

Похожие книги

100 великих загадок современности
100 великих загадок современности

Новая книга из серии «100 великих» посвящена ряду загадок отечественной и всемирной истории XX и начала XXI века. Порой кажется, что столетие, лишь недавно канувшее в Лету, дает нам поводов для размышлений и материала для исследований больше, чем все прошедшие века и тысячелетия человеческой истории. Две мировые войны, множество локальных военных конфликтов, революции и гражданские войны, заговоры, путчи и перевороты, экономические «чудеса» и тяжелейшие кризисы, выдающиеся достижения культуры и великие научные открытия, взлеты и падения человеческого духа – все это уместилось на относительно небольшом хронологическом отрезке. Читателю предлагаются оригинальные версии, результаты исследований ученых, краеведов, журналистов.

Николай Николаевич Непомнящий

Энциклопедии / Прочая научная литература / Образование и наука