Как известно [2], законы распределения вероятностей погрешностей в различных измерительных устройствах весьма разнообразны. Это разнообразие создает основную трудность определения эффективного значения погрешности, которое однозначно характеризовало бы абсолютную величину интервала неопределенности значения физической величины, остающуюся после данного показания А. Определенность не вносится даже при задании доверительной вероятности, т. к. произвольное значение интервала 2 Д, исходя из максимальной или среднеквадратичной погрешности, просто заменяется произвольным назначением доверительной вероятности. Подход к решению данного вопроса был заложен К. Шенноном в его информационной теории [3]. Согласно ей количество информации, получаемое в результате любого сообщения (включая измерение), равно убыли неопределенности, или энтропии
т. е. разности энтропий до и после получения сообщения (выполнения измерения). Причем исходная неопределенность, т. е. безусловная энтропия
Для целей подсчета информации в
На основании вышеприведенных соображений рядом авторов, например [2], делается вывод о целесообразности введения единого – информационного – подхода к любому закону распределения погрешности. Вводится понятие энтропийного значения погрешности. Под ним понимается значение погрешности с равномерным законом распределения, которое вносит такое же дезинформирующее действие, что и погрешность с данным законом распределения вероятностей.
Если погрешность с произвольным законом распределения вероятности имеет энтропию
2Δ = exp
а энтропийное значение погрешности, определяемое как половина интервала неопределенности, будет равно
Δ
что позволяет однозначно определить риск коммерческого учета по выражению (3).
Зависимость между энтропийным и среднеквадратичным значением погрешности
Δ =
где коэффициент