Нормирование погрешностей средств измерения

Чтобы оценить погрешность, которая вносит прибор в результат измерения пользуются нормированием или предельными значениями погрешностей. Класс точности – характеристика, определяющая значение основных и дополнительных погрешностей. Согласно ГОСТу для определения класса точности используют определенный ряд чисел: 6 - 4 - 2,5 - 1,5 - 1,0 - 0.5 - 0,2 - 0,1 - 0,05 - 0,02 - 0,01 - … Значение класса точности маркируется на шкале прибора и записывается в техпаспорте. В соответствии классу точности определяют при проверках.

Дополнительная погрешность указывается коэффициентом влияния. Основная погрешность нормируется четырьмя способами:

D=кХ
1. класс точности указывается по относительной погрешности, если полоса погрешности средств измерения чисто мультипликативная.

На шкале указывается в кружке.

2. класс точности указан по приведенной погрешности (присутствует только аддитивная погрешность) , , D0 - если погрешность прибора чисто аддитивная, где ХN – нормирующее значение. Если 0 на начале шкалы, то ХNк, где Хк – конечное значение диапазона. Если 0 в середине шкалы, то ХN равен длине шкалы.

Полный диапазон Дп ограничен сверху порогом чувствительности, а снизу Хк. Рабочий диапазон Др составляет часть Дп. Измерение в начале шкалы недопустимо. gотн.зад=4,10,20%. D/Хк берут в единицах длины шкалы.
При Х=D0 - порог чувствительности.

 

3. Аддитивная и мультипликативная погрешность присутствуют одновременно. Полоса погрешности имеет трапециидальную форму. Класс точности задается как с/d.

D=D0-gSХ (*), где D0 - аддитивная, gSХ - мультипликативная Разделив (*) на Хк получим: . Обозначим - приведенная погрешность при Х=0.  

При Х=Хк : . Таким способом указывают класс точности цифровых вольтметров.
Когда

4. Если полоса погрешности имеет более сложный вид, то для указаниякласса точности используются формулы.