Нормирование погрешностей средств измерения. Классы точности средств измерения)

Средство измерений – техническое средство (или их комплекс), предназначенное для измерений, имеющее нормированные метрологические характеристики, воспроизводящее и (или) хранящее единицу физической величины, размер которой принимается неизменным в пределах установленной погрешности и в течение известного интервала времени.

Погрешности измерений
Истинное значение физической величины – значение физической величины, которое идеальным образом отражало бы в количественном и качественном отношениях соответствующее свойство объекта (согл. 16263-70).
Результат любого измерения отличается от истинного значения физической величины на некоторое значение, зависящее от точности средств и методов измерения, квалификации оператора, условий, в которых проводилось измерение, и т. д. Отклонение результата измерения от истинного значения физической величины называется погрешностью измерения.
Поскольку определить истинное значение физической величины в принципе невозможно, т. к. это потребовало бы применения идеально точного средства измерений, то на практике вместо понятия истинного значения физической величины применяют понятие действительного значения измеряемой величины, которое настолько точно приближается к истинному значению, что может быть использовано вместо него. Это может быть, например, результат измерения физической величины образцовым средством измерения.
Абсолютная погрешность измерения – это разность между результатом измерения и действительным (истинным) значением физической величины:
D = хи - х
Относительная погрешность измерения – это отношение абсолютной погрешности к действительному (истинному) значению измеряемой величины (часто выраженное в процентах):
d = (D/ хи) 100%
Приведенная погрешность – это выраженное в процентах отношение абсолютной погрешности к нормирующему значению L – условно принятому значению физической величины, постоянному во всем диапазоне измерений:
g = (D/ L) 100%
Для приборов с нулевой отметкой на краю шкалы нормирующее значение L равно конечному значению диапазона измерений. Для приборов с двухсторонней шкалой, т. е. с отметками шкалы, расположенными по обе стороны от нуля значение L равно арифметической сумме модулей конечных значений диапазона измерения.
Погрешность измерения (результирующая погрешность) является суммой двух составляющих: систематической погрешности и случайной погрешности.
Систематическая погрешность – это составляющая погрешности измерения, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. Причинами появления систематической погрешности могут являться неисправности средств измерений, несовершенство метода измерений, неправильная установка измерительных приборов, отступление от нормальных условий их работы, особенности самого оператора. Систематические погрешности в принципе могут быть выявлены и устранены. Для этого требуется проведение тщательного анализа возможных источников погрешностей в каждом конкретном случае.
Систематические погрешности подразделяются на методические, инструментальные и субъективные.
Методические погрешности происходят от несовершенства метода измерения, использования упрощающих предположений и допущений при выводе применяемых формул, влияния измерительного прибора на объект измерения. Например, измерение температуры с помощью термопары может содержать методическую погрешность, вызванную нарушением температурного режима объекта измерения вследствие внесения термопары.
Инструментальные погрешности зависят от погрешностей применяемых средств измерения. Неточность градуировки, конструктивные несовершенства, изменения характеристик прибора в процессе эксплуатации и т. д. являются причинами основных погрешностей инструмента измерения. Дополнительные погрешности, связанные с отклонением условий, в которых работает прибор, от нормальных, отличают от инструментальных (ГОСТ 8.009-84), т. к. они связаны скорее с внешними условиями, чем с самим прибором.
Субъективные погрешности вызываются неправильными отсчетами показаний прибора человеком (оператором). Например, погрешность от параллакса, вызванная неправильным направлением взгляда при наблюдении за показаниями стрелочного прибора. Использование цифровых приборов и автоматических методов измерения позволяет исключить такого рода погрешности.

 

 

Класс точности – это обобщенная характеристика средств измерений, определяемая пределами допускаемых основных и дополнительных погрешностей, а также рядом других свойств, влияющих на точность осуществляемых с их помощью измерений. Классы точности регламентируются стандартами на отдельные виды средств измерения с использованием метрологических характеристик и способов их нормирования.

 

Из-за разнообразия измеряемых величин и средств измерений нельзя ввести единый способ выражения пределов допускаемых погрешностей и единые обозначения К. т. Если пределы погрешностей выражены в виде приведенной погрешности (т. е. в процентах от верхнего предела измерений, диапазона измерений или длины шкалы прибора), а также в виде относительной погрешности (т. е. в процентах от действительного значения величины), то К. т. обозначают числом, соответствующим значению погрешности. Например: К. т. 0,1 соответствует погрешность 0,1%. Многие показывающие приборы (амперметры, вольтметры, манометры и др.) формируются по приведённой погрешности, выраженной в процентах от верхнего предела измерений. В этих случаях применяется ряд К. т.: 0,1; 0,2; 0,5; 1,0; 1,5; 2,5; 4,0. При нормировании по относительной погрешности обозначение К. т. заключают в кружок.