равносильное (1), даёт ту же И., то есть (1) и (3) — это различные формы задания одной и той же И.
Пример 3. Результаты произведённых с ошибками независимых измерений какой-либо физической величины дают И. о её точном значении. Увеличение числа наблюдений увеличивает эту И.
Пример 3 а. Среднее арифметическое результатов наблюдений также содержит некоторую И. относительно рассматриваемой величины. Как показывает математическая статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И.
Пример 4. Пусть результатом некоторого измерения является случайная величина X
. При передаче по некоторому каналу связи X
искажается, в результате чего на приёмном конце получают величину Y
= X
+ q, где q не зависит от X
(в смысле теории вероятностей). «Выход» Y
даёт И. о «входе» X
; причём естественно ожидать, что эта И. тем меньше, чем больше дисперсия случайной ошибки q. В каждом из приведённых примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1—3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности некоторых соотношений. В примерах 3 а и 4 этот смысл требует уточнения. Это уточнение даётся, соответственно, математической статистикой и теорией И. (для которых эти примеры являются типичными).
В основе теории информации лежит предложенный в 1948 американским учёным К. Шенноном способ измерения количества И., содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно другого случайного объекта. Этот способ приводит к выражению количества И. числом. Положение можно лучше объяснить в простейшей обстановке, когда рассматриваемые случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть X
— случайная величина, принимающая значения x1
, x2
,..., xn
с вероятностями p1
, p2
,..., pn
,
а Y
— случайная величина, принимающая значения y1
, y2
,..., ym
с вероятностями q1
, q2
,..., qm
. Тогда И. I
(X
,Y
) относительно Y
, содержащаяся в X
, определяется формулой
где pij
— вероятность совмещения событий X
= xi
и Y =yj
и логарифмы берутся по основанию 2. И. I
(X
, Y
) обладает рядом свойств, которые естественно требовать от меры количества И. Так, всегда I
(X
, Y
) ³ 0 и равенство I
(X
, Y
) = 0 возможно тогда и только тогда, когда pij
= pi
qj
при всех i
и j,
т. е. когда случайные величины X
и Y
независимы. Далее, всегда I
(X
, Y
) lb I
(Y
, Y
) и равенство возможно только в случае, когда Y
есть функция от X
(например, Y
= X2
и т. д.). Кроме того, имеет место равенство I
(X
, Y
) = I
(Y
, X
). Величина
носит название энтропии случайной величины X
. Понятие энтропии относится к числу основных понятий теории И. Количество И. и энтропия связаны соотношениемI
(X
, Y
) = H
(X
) + H
(Y
) — H
(X
, Y
), (5)где H
(X
, Y
) — энтропия пары (X
, Y
), т. е.
Величина энтропии указывает среднее число двоичных знаков (см. Двоичные единицы
), необходимое для различения (или записи) возможных значений случайной величины (подробнее см. Кодирование
, Энтропия
). Это обстоятельство позволяет понять роль количества И. (4) при «хранении» И. в запоминающих устройствах. Если случайные величины X
и Y
независимы, то для записи значения X
требуется в среднем H
(X
) двоичных знаков, для значения Y
требуется H
(Y
) двоичных знаков, а для пары (X
, Y
) требуется Н
(Х
) + H
(Y
) двоичных знаков. Если же случайные величины X
и Y
зависимы, то среднее число двоичных знаков, необходимое для записи пары (X
, Y
), оказывается меньшим суммы Н
(Х
) + H
(Y
), так какH
(X
, Y
) = H
(X
) + H
(Y
) — I
(X
, Y
). С помощью значительно более глубоких теорем выясняется роль количества И. (4) в вопросах передачи И. по каналам связи. Основная информационная характеристика каналов, так называемая пропускная способность (или ёмкость), определяется через понятие «И.» (подробнее см. Канал
). Если X
и Y
имеют совместную плотность p
(x
, y
), то
где буквами р
и q
обозначены плотности вероятности Х
и Y
соответственно. При этом энтропии Н
(X
) и Н
(Y
) не существуют, но имеет место формула, аналогичная (5),I
(X
, Y
) = h
(X
) + h
(Y
) — h
(X
, Y
), (7)где
дифференциальная энтропия X
[h
(Y
) и h
(X
, Y
) определяется подобным же образом]. Пример 5. Пусть в условиях примера 4 случайные величины X
и q имеют нормальное распределение вероятностей с нулевыми средними значениями и дисперсиями, равными соответственно s2х
и s2q.
Тогда, как можно подсчитать по формулам (6) или (7):
Таким образом, количество И. в «принятом сигнале» Y
относительно «переданного сигнала» X
стремится к нулю при возрастании уровня «помех» q (т. е. при s2q
® yen) и неограниченно возрастает при
исчезающе малом влиянии «помех» (т. е. при s2q
® 0).