Читаем Операторы коммерческого учета на рынках электроэнергии. Технология и организация деятельности полностью

Как известно [2], законы распределения вероятностей погрешностей в различных измерительных устройствах весьма разнообразны. Это разнообразие создает основную трудность определения эффективного значения погрешности, которое однозначно характеризовало бы абсолютную величину интервала неопределенности значения физической величины, остающуюся после данного показания А. Определенность не вносится даже при задании доверительной вероятности, т. к. произвольное значение интервала 2 Д, исходя из максимальной или среднеквадратичной погрешности, просто заменяется произвольным назначением доверительной вероятности. Подход к решению данного вопроса был заложен К. Шенноном в его информационной теории [3]. Согласно ей количество информации, получаемое в результате любого сообщения (включая измерение), равно убыли неопределенности, или энтропии

q = H (X) – H (X / A), (4)

т. е. разности энтропий до и после получения сообщения (выполнения измерения). Причем исходная неопределенность, т. е. безусловная энтропия H(X), зависит только от распределения вероятности различных значений измеряемой величины (сообщений) и не зависит от распределения вероятности погрешности. Напротив, неопределенность, остающаяся после выполнения измерения (получения результата – сообщения), т. е. условная энтропия H(X/A), равна энтропии распределения вероятностей погрешностей [2].

Энтропия представляет собой своеобразный момент случайной величины с известной плотностью вероятности p(x) или математическое ожидание логарифма этой плотности вероятности. Если принять в качестве основания логарифма число e, то она имеет вид


Для целей подсчета информации в битах в (5) используется двоичный логарифм.

На основании вышеприведенных соображений рядом авторов, например [2], делается вывод о целесообразности введения единого – информационного – подхода к любому закону распределения погрешности. Вводится понятие энтропийного значения погрешности. Под ним понимается значение погрешности с равномерным законом распределения, которое вносит такое же дезинформирующее действие, что и погрешность с данным законом распределения вероятностей.

Если погрешность с произвольным законом распределения вероятности имеет энтропию H(X/A) , то эффективный интервал неопределенности 2 вне зависимости от вида закона распределения будет равен

2 = exp H (X / A),

а энтропийное значение погрешности, определяемое как половина интервала неопределенности, будет равно

= ±1/2exp H (X / A),

что позволяет однозначно определить риск коммерческого учета по выражению (3).

Зависимость между энтропийным и среднеквадратичным значением погрешности S может быть представлена как

= K,

где коэффициент К подобен коэффициенту формы, связывающему действующее и среднее значение электрического тока [2].

Коэффициент К зависит от вида закона распределения вероятностей погрешности и называется энтропийным коэффициентом данного закона. Наибольшей энтропией при заданной мощности помехи из всех возможных в природе законов распределения вероятностей обладает нормальное распределение. Поэтому оно имеет наибольший, предельно возможный, энтропийный коэффициент [2], равный


Энтропийный коэффициент равномерного распределения, характерного для погрешностей измерения приращения электроэнергии, имеет значение


Получение любой информации, в т. ч. и измерительной, теория информации трактует как устранение некоторой части неопределенности, а количество информации получается как разность неопределенности ситуаций до и после получения данного сообщения (результата измерения).

Хорошо известен пример оценки количества информации при равномерном законе распределения вероятности погрешностей [2]. Пусть априорно известно, что истинное значение подлежащей измерению физической величины лежит в диапазоне (X1, X2). Тогда плотность вероятности имеет вид


После выполнения измерений получено показание прибора A с погрешностью ± . При этом интервал неопределенности сократился до 2, а плотность распределения стала равной


Тогда из (4) и (5) следует, что количество полученной при измерении информации выглядит как


Возвращаясь к оценкам рисков с учетом выводов информационной теории измерений, можно сделать следующие заключения.

1. Риск неопределенности априорной оценки (до выполнения измерения) по своей сути и последствиям принципиально не отличается от риска неопределенности результата измерения.

2. Риск неопределенности результата измерения целесообразно определять по энтропийному значению погрешности, являющемуся единой мерой дезинформации при любых законах распределения погрешностей.

3. На практике при оценке неопределенности измерений для целей коммерческого учета в качестве интервала неопределенности можно брать границы неисключенных систематических погрешностей, которые приводятся в МВИ.


Пример 1

Перейти на страницу:
Нет соединения с сервером, попробуйте зайти чуть позже