Принципы, методы и методики измерений

Наряду с рассмотренными выше основными характеристиками измерений, в теории измерений рассматриваются такие их характеристики, как принцип и метод измерений.

Принцип измерений– физическое явление или эффект, положенное в основу измерения. Например, использование силы тяжести при измерении массы взвешиванием.

Метод измерений – прием или совокупность приемов сравнения измеряемой величины с ее единицей в соответствии с реализованным принципом измерений. Как правило, метод измерений обусловлен устройством средств измерений. Некоторыми примерами распространенных методов измерений являются следующие методы.

Метод непосредственной оценки – метод, при котором значение величины определяют непосредственно по показывающему средству измерений. Например, взвешивание на циферблатных весах или измерение давления пружинным манометром.

Дифференциальный метод – метод измерений, при котором измеряемая величина сравнивается с однородной величиной, имеющей известное значение, незначительно отличающееся от значения измеряемой величины, и при котором измеряется разность между этими двумя величинами. Этот метод может дать очень точные результаты. Так, если разность составляет 0,1 % измеряемой величины и оценивается прибором с точностью до 1 %, то точность измерения искомой величины составит уже 0,001 %. Например, при сравнении одинаковых линейных мер, где разность между ними определяется окулярным микрометром, позволяющим ее оценить до десятых долей микрона.

Нулевой метод измерений – метод сравнения с мерой, в котором результирующий эффект воздействия измеряемой величины и меры на прибор сравнения доводят до нуля. Мера – средство измерений, предназначенное для воспроизведения и хранения физической величины. Например, измерение массы на равноплечных весах при помощи гирь. Принадлежит к числу очень точных методов.

Метод сравнения с мерой – метод измерений, в котором измеряемую величину сравнивают величиной, воспроизводимой мерой. Например, измерение напряжения постоянного тока на компенсаторе сравнением с известной ЭДС нормального элемента. Результат измерения при этом методе либо вычисляют как сумму значения используемой для сравнения меры и показания измерительного прибора, либо принимают равным значению меры. Существуют различные модификации этого метода:

- метод измерения замещением (измеряемую величину замещают мерой с известным значением величины, например, при взвешивании поочередным помещением массы и гирь на одну и ту же чашку весов),

- метод измерений дополнением, в котором значение измеряемой меры дополняется мерой этой же величины с таким расчетом, чтобы на прибор сравнения воздействовала их сумма, равная заранее заданному значению.

 

Погрешности измерений

Погрешность измерения – оценка отклонения величины измеренного значения величины от её истинного значения. Погрешность измерения является характеристикой (мерой) точности измерения.

Поскольку выяснить с абсолютной точностью истинное значение любой величины невозможно, то невозможно и указать величину отклонения измеренного значения от истинного. Это отклонение принято называть ошибкой измерения.

Согласно РМГ 29-99 термин «ошибка измерения» не рекомендуется применять как менее удачный. Возможно лишь оценить величину этого отклонения, например, при помощи статистических методов. При этом за истинное значение принимается среднестатистическое значение, полученное при статистической обработке результатов серии измерений. Это полученное значение не является точным, а лишь наиболее вероятным. Поэтому в измерениях необходимо указывать, какова их точность. Для этого вместе с полученным результатом указывается погрешность измерений.

Например, запись

T=2,8±0,1c.

означает, что истинное значение величины T лежит в интервале от 2,7 с. до 2,9 с. с некоторой доверительное вероятностью.

В 2004 году на международном уровне был принят новый документ, диктующий условия проведения измерений и установивший новые правила сличения государственных эталонов. Понятие «погрешность» стало устаревать, вместо него было введено понятие «неопределенность измерений», однако ГОСТ Р 50.2.038-2004 «Измерения прямые однократные. Оценивание погрешностей и неопределенности результата измерений» допускает использовать термин погрешность для документов, использующихся в России.

Определение погрешности

В зависимости от характеристик измеряемой величины для определения погрешности измерений используют различные методы.

1) Метод Корнфельда, заключается в выборе доверительного интервала в пределах от минимального до максимального результата измерений, и погрешность как половина разности между максимальным и минимальным результатом измерения:

(1.3.1)

2) Средняя квадратическая погрешность (отклонение):

(1.3.2)

3) Средняя квадратическая погрешность среднего арифметического:

(1.3.3)

 



php"; ?>