Погрешности средств измерений. При любом измерении имеется погрешность, представляющая собой отклонение результата измерения от истинного значения измеряемой величины

При любом измерении имеется погрешность, представляющая собой отклонение результата измерения от истинного значения измеряемой величины. На рисунке 1.8 приведена классификация погрешностей средств измерений по ряду признаков.

 

Рис. 1.8. Классификация погрешностей измерительных устройств

 

Систематическая погреш­ность – составляющая погрешности измерения, остающаяся постоян­ной или закономерно изменяющаяся при повторных измерениях одной и той же величины. По характеру проявления систематические погрешно­сти разделяются на постоянные и переменные. Переменные в свою оче­редь могут быть прогрессирующими, периодическими и изменяющимися по сложному закону.

Для исключения систематической погрешности наибольшее распространение в практике получил метод поправок.

Случайная составляющая погрешности при повторных измерениях одной и той же величины изменяется случай­ным образом. Обычно она является следствием одновременного действия многих независимых причин, каждая из которых в отдельности мало вли­яет на результат измерения. Случайные погрешности не могут быть иск­лючены из результата измерения, но теория вероятности и математиче­ская статистика позволяют оценить результат измерения при наличии случайных погрешностей. Они характеризуются свойствами, которые формулируют двумя аксиомами:

  1. Аксиома случайности — при очень большом числе измерений слу­чайные погрешности, равные по величине и различные по знаку, встреча­ются одинаково часто. Число отрицательных погрешностей равно числу положительных.
  2. Аксиома распределения — малые погрешности встречаются чаще, чем большие. Очень большие погрешности не встречаются.

Случайные погрешности рассматриваются как случайные величины, подчиняющиеся некоторому симметричному закону распределения.

Основной погрешностью называют погрешность при использовании средства измерений в нормальных условиях. Нормальными условиями применения средств измерений называют условия, при которых влияющие величины имеют номинальные значения или находятся в пределах нормальной области значений. Нормальные условия применения указываются в стандартах или технических условиях на средства измерений. При использовании средств измерений в нормальных условиях считают, что влияющие на них величины практически никак не изменяют их характеристики.

Дополнительной погрешностью измерительного преобразователя (или изменением показаний измерительного прибора) называют из­менение его погрешности, вызванной отклонением одной из влияю­щих величин от ее нормативного значения или выходом ее за пре­делы нормальной области значений. Дополнительная погрешность может быть вызвана изменением сразу нескольких влияющих ве­личин.

Изменение погрешности, как и других характеристик и парамет­ров измерительных устройств под действием влияющих величин, описывается функциями влияния.

Иными словами, дополнительная погрешность – это часть по­грешности, которая добавляется (имеется в виду алгебраическое сложение) к основной в случаях, когда измерительное устройство применяется в рабочих условиях. Рабочие условия обычно таковы, что изменения значений влияющих величин для них существенно больше, чем для нормальных условий, т. е. область рабочих (часть этой области называют расширенной областью) условий включает в себя область нормальных условий.

В некоторых случаях основная погрешность измерительных уст­ройств определяется для рабочей области изменения значений влияющих величин. В этих случаях понятие дополнительной по­грешности теряет смысл.

В зависимости от режима применения различают статическую и динамическую погрешности измерительных устройств.

По форме представления принято различать абсолютную, отно­сительную и приведенную погрешности измерительных устройств. У измерительных приборов имеется шкала, отградуированная в единицах входной величины, либо шкала, отградуированная в условных единицах с известным множителем шкалы, поэтому результат измерения представляется в единицах входной величины. Это обусловливает простоту опре­деления погрешности измерительных приборов.

Абсолютной погрешностью измерительного прибора Δ называют разность показаний прибора ХП и истинного (действительного) ХД значения измеряемой величины:

Действительное значение определяется с помощью образцового при­бора или воспроизводится мерой.

Относительной погрешностью измерительного прибора называют отношение абсолютной погрешности измерительного прибора к действительному значению измеряемой величины. Относительную погрешность выражают в процентах:

.

Так как Δ << XД или ХП, то в вышеприведенном выражении вместо значения XД может быть использовано значение XП.

Приведенной погрешностью измерительного прибора называют отношение абсолютной погрешности измерительного прибора к нор­мирующему значению ХN. Приведенную погрешность также выра­жают в процентах:

.

В качестве нормирующего значения используется верхний предел измерений, диапазон измерений и др., т. е.

.

Средства измерений могут использоваться в статическом или динамическом режиме работы. В статическом режиме измеряемая величина не изменяется во времени, а отсчет выполняется тогда, когда практически окончены переходные процессы, вызванные подключением измеряемой величины ко входу средства измерений. В динамическом режиме измеряемая величина изменяется во времени. В соответствии с этим различают статическую погрешность средства измерений и погрешность средства измерений в динамическом режиме.

Очевидно, что погрешность средства измерений в динамическом режиме включает в себя статическую погрешность и погрешность, обусловленную инерционностью средства измерений. Последняя погрешность носит название динамической погрешности средства измерений и определя­йся как разность между погрешностью средства измерений в динамическом режиме и его статической погрешностью, соответствующей значению величины в данный момент времени.

При анализе погрешностей средств измерений и выборе способов их уменьшения весьма важным является разделение погрешностей по их зависимости от значения измеряемой (преобразуемой) величины. По этому признаку, погрешности делятся на аддитивные, мультипликативные, линейности и гистерезиса.

Аддитивную погрешность иногда называют погрешностью нуля, а мультипликативную – погрешностью чувствительности. Реально погрешность средства измерений включает в себя обе указанные составляющие.

Кроме того, номинальная функция преобразования средства измерений – это в большинстве случаев более простая функция (обычно линейная), чем градуировочная характеристика.

Графически образование перечисленных погрешностей показано на рисунке 1.9.

Рис. 1.9. Реальные функции преобразования измерительных устройств

 

Аддитивная погрешность постоянна при всех значениях измеряемой величины (рисунок 1.9, а). На рисунке видно, что реальная функция преобразования несколько смещена относительно номинальной , т. е. выходной сигнал измерительного устройства при всех значе­ниях измеряемой величины X будет больше (или меньше) на одну и ту же величину, чем он должен быть, в соответствии с номиналь­ной функцией преобразования.

Если аддитивная погрешность является систематической, то она может быть устранена. Для этого в измерительных устройствах обычно имеется специальный настроечный узел (корректор) нуле­вого значения выходного сигнала.

Если аддитивная погрешность является случайной, то ее нельзя исключить, а реальная функция преобразования смещается по от­ношению к номинальной во времени произвольным образом. При этом для реальной функции преобразования можно определить некоторую полосу (рисунок 1.9, б), ширина которой остается постоянной при всех значениях измеряемой величины.

Возникновение случайной аддитивной погрешности обычно вы­звано трением в опорах, контактными сопротивлениями, дрейфом нуля, шумом и фоном измерительного устройства.

Мультипликативной (получаемой путем умножения), или по­грешностью чувствительности измерительных устройств, называют погрешность, которая линейно возрастает (или убывает) с увели­чением измеряемой величины.

Графически появление мультипликативной погрешности интер­претируется поворотом реальной функции преобразования относи­тельно номинальной (рисунок 1.9, в). Если мультипликативная погреш­ность является случайной, то реальная функция преобразования представляется полосой, показанной на рисунке 1.9 (г). Причиной воз­никновения мультипликативной погрешности обычно является из­менение коэффициентов преобразования отдельных элементов и узлов измерительных устройств.

На рисунке 1.9 (д) показано взаимное расположение номинальной и реальной функций преобразования измерительного устройства в случае, когда отличие этих функций вызвано нелинейными эффек­тами. Если номинальная функция преобразования линейная, то вызванную таким расположением реальной функции преобразова­ния систематическую погрешность называют погрешностью линей­ности. Причинами данной погрешности могут быть конструкция (схема) измерительного устройства и нелинейные искажения функ­ции преобразования, связанные с несовершенством технологии про­изводства.

Зависимость вход-выход измерительных приборов без учета гистерезиса и ухода нуля может быть представлена в виде:

,

где xвх – измеряемая (входная) величина, yвых – выходная величина, a0, a1, …, an – градуировочные коэффициенты.

Реальная функция преобразования может быть представлена линией, примыкающей к прямой a0xвх (номинальная функция преобразования) (рисунок 1.10).

Рис. 1.10. Типичные градуировочные кривые: а – линейная; б – нелиней­ная при наличии в уравнении преобразования четных степеней xвх; в - не­линейная при наличии в уравнении преобразования нечетных степеней xвх; г – нелинейная при наличии в уравнении преобразования четных и нечет­ных степеней xвх.

 

Симметричная кривая (рисунок 1.10, в), описываемая уравнением с нечетными степенями xвх, наиболее желательна с точки зрения линейности. Как будет показано ниже, нелинейные, но симметричные кривые двух чувствительных элементов, включенных дифференциально, дают улучшение линейности путем исключения членов xвх с четными степенями.

Наиболее существенной и трудноустранимой систематической погрешностью измерительных устройств является погрешность ги­стерезиса (от греч. hysteresis – запаздывание), или погрешность обратного хода, выражающаяся в несовпадении реальной функции преобразования измерительного устройства при увеличении (пря­мой ход) и уменьшении (обратный ход) измеряемой величины (рисунок 1.9, е). Причинами гистерезиса являются: люфт и сухое тре­ние в механических передающих элементах, гистерезисный эффект в ферромагнитных материалах, внутреннее трение в материалах пружин, явление упругого последействия в упругих чувствительных элементах, явление поляризации в электрических, пьезоэлектриче­ских и электрохимических элементах и др. Существенным при этом является тот факт, что форма получаемой петли реальной функции преобразования зависит от предыстории, а именно от значения из­меряемой величины, при котором после постепенного увеличения последней начинается ее уменьшение (на рисунке 1.9, е, это показано пунктирными линиями).

В цифровых (ЦИП) квантование по уровню и времени осуществляется путем замены через время Δt (шаг квантования) значений непрерывной функции ближайшим дискретным уровнем с шагом Q. При этом максимальная погрешность от квантования составит
Δкв = ± Q/2.

Приведенная погрешность определяется по формуле:

,

где ПД – полный диапазон измеряемой величины.

,

где N – число уровней квантования (интервалов).

.

Например, измеряет напряжение в диапазоне 0..150 В с γ = 0,1 %. Для определения шага квантования запишем:

.

 

Методы повышения точности измерений

Для технологических измерений повышение точности измерений особенно важно в связи с широким применением АСУ ТП. Для решения этой задачи применяются различные методы (рисунок 1.11).

 

Рис. 1.11. Классификация методов повышения точности измерений

 

Уменьшения случайной составляющей погрешности измерений уве­личивают число наблюдений (см. рисунок 1.10). Оценку среднеквадратического отклонения результата измерения, которая определяет собой случайную погрешность, теоретически можно сделать как угодно малой, увели­чив число наблюдений n. Однако на практике в большинстве слу­чаев трудно обеспечить постоянство самого объекта измерений в течение длительного времени, а это может при увеличении числа наблюдений n привести к увеличению погрешности, а не к ее умень­шению.

Другим методом повышения точности измерений за счет уменьшения случайной составляющей погрешности является использование параллельных одновременных измерений одной и той же физической величины. Для этого необходимо использовать сразу несколько средств измерений. Результаты наблюдений, по­лученных при этих измерениях, обрабатывают совместно. Теорети­ческая основа этого метода та же, что и предыдущего метода.

Ранее были рассмотрены основные методы исключения систематической погрешности, а именно: методы, ос­новывающиеся на устранении источников систематической погрешности до начала измерений и методы исключения систематических погрешностей по окончании измерений. К числу последних отно­сятся не только применение поправок и поправочных множителей, но и учет дополнительных погрешностей средств измерений.

Кроме этих методов применяют методы, позволяющие опреде­лять и исключать систематическую погрешность в процессе измере­ний. Последние основываются на такой организации процесса из­мерений и обработки получаемой измерительной информации, кото­рые обеспечивают исключение погрешности или ее определение. Причем применение таких методов возможно и целесообразно в тех случаях, когда известна природа исключаемой систематической погрешности. К числу этих методов относятся: метод замещения, метод компенсации погрешности по знаку и различные методы, базирующиеся на совместных или совокупных измерениях.

При использовании метода компенсации погрешности по знаку процесс измерения организуется таким образом, что известная сис­тематическая погрешность входит в результат каждого из двух по­вторных измерений с противоположным знаком. Это позволяет после определения среднего арифметического значения исключить систематическую погрешность.

Сущность методов, базирующихся на совместных или совокуп­ных измерениях применительно к уменьшению систематических по­грешностей, состоит в том, что в процессе этих измерений изменяют параметр, отвечающий за возникновение систематической погреш­ности, или осуществляют измерение физической величины совмест­но и последовательно с несколькими вспомогательными мерами. В результате получают систему независимых уравнений, из реше­ния которой определяют значения измеряемой физической величи­ны уже с учетом систематической погрешности.

Одним из наиболее радикальных путей повышения точности из­мерений при прочих равных условиях является использование более точных средств измерений. Появление и развитие микроэлектронной техники и микропроцессоров, обеспечивающие возможность практически полной автоматизации самых сложных измерительных процессов, позволили использовать для увеличения точности средств измерений рассмотренные выше методы повышения точно­сти измерений. Наряду с этими методами для повышения точности средств измерений применяется ряд традиционных методов, классификация которых приведена на рисунке 1.12.

Рис. 1.12. Классификация методов повышения точности средств измерений

 

Метод многократных наблюдений используется для уменьшения случайной составляющей погрешности средства измерений и со­стоит в том, что: за некоторый постоянный интервал времени, от­веденный для измерения, выполняют несколько наблюдений, затем с помощью вычислительного устройства, входящего в состав дан­ного средства измерений, вычисляют среднее арифметическое зна­чение измеряемой величины и оценку среднеквадратического от­клонения результата измерения.

Метод многоканальных измерений аналогичен рассмотренному методу параллельных измерений (см. рисунок 1.12). Средства измере­ний, с помощью которых реализуется данный метод, содержат не­сколько идентичных по характеристикам параллельных измери­тельных цепей (каналов) и вычислительное устройство. Последнее, получая измерительную информацию по этим каналам, вычисляет среднее арифметическое значение измеряемой величины и оценку среднеквадратического отклонения результата измерения. Такой метод позволяет уменьшить случайную составляющую погрешности средства измерений.

Метод параметрической стабилизации, называемый еще конст­руктивно-технологическим, состоит в стабилизации статической характеристики средств измерений. Параметрическая стабилизация реализуется путем изготовления средств измерений из точных и стабильных элементов, параметры которых мало подвержены внеш­ним влияниям; термостабилизации; стабилизации параметров пи­тания средств измерений; экранировки средств измерений от маг­нитных и электрических полей и т. п. Данный метод уменьшает си­стематическую и случайную погрешности средств измерений. Он является классическим в приборостроении. На основе этого метода до сих пор строится современный парк средств измерений.

Структурные методы основаны на том, что в состав средств измерений включаются дополнительные узлы, элементы и меры, обеспечивающие повышение точности этих средств измерений за счет информации, полученной с их помощью. Структурные методы повышения точности средств измерений подразделяют на методы, обеспечивающие стабилизацию статической характеристики средст­ва измерений, и методы, основанные на коррекции этой характе­ристики.

Структурные методы стабилизации статиче­ской характеристики средств измерений (см. рисунок 1.12).

Метод отрицательной обратной связи реализуем только при на­личии преобразовательных элементов или преобразователей, спо­собных осуществлять преобразование выходного сигнала средства измерений во входной (обратный преобразователь). Создание та­ких преобразователей – часто сложная техническая задача. Применение данного метода обеспечивает уменьшение мультипли­кативной погрешности и погрешности нелинейности, а относитель­ная аддитивная погрешность при этом не изменяется. В то же время использование метода приводит к уменьшению чувствительности средства измерения. Данный метод повышает точность средств измерения и наряду с методом параметрической стабилизации явля­ется наиболее распространенным.

Метод инвариантности состоит в том, что в средстве измерений помимо измерительной цепи (канала) имеется сравнительная цепь (канал), к которой не подается входной сигнал, но которая, как и измерительная цепь, находится под воздействием некоторой влияю­щей величины. Причем параметры сравнительной цепи подобраны так, что изменение ее сигнала под действием влияющей величины идентично изменению сигнала измерительной цепи под действием этой величины, т. е. возмущения, вызванные влияющей величиной, поступают в средство измерений по двум каналам (принцип двухканальности). Использование разности сигналов измерительной и сравнительной цепей (при дифференциальном включении этих це­пей) обеспечивает независимость (инвариантность) результирую­щего сигнала от названной влияющей величины, т. е. метод обес­печивает исключение дополнительной погрешности, вызванной изменениями некоторой, как правило, основной влияющей величи­ны.

Метод модуляции состоит в том, что сигнал, поступающий на вход средства измерений, или параметры этого средства измерений подвергаются принудительным периодическим изменениям (моду­ляции) с частотой, не совпадающей (обычно более высокой) с об­ластью частот измеряемого сигнала. Использование метода моду­ляции позволяет уменьшить погрешности от сил трения, явлений поляризации и гистерезиса.

Метод прямого хода состоит в том, что измеряемый сигнал по­ступает к чувствительному элементу средства измерений через ключ, с помощью которого осуществляется периодическое во вре­мени отключение измеряемого сигнала от чувствительного элемен­та и подача к последнему сигнала, значение которого равно нулю. Это обеспечивает работу средства измерений на восходящей ветви (прямой ход) статической характеристики при всех значениях измеряемого сигнала, что исключает наиболее сущест­венную погрешность многих средств измерений – погрешность от вариации.

Структурные методы коррекции статической характеристики (методы коррекции погрешности средств измерений). Перечень их приведен на рисунке 1.12.

Метод вспомогательных измерений заключается в автоматизации процесса учета дополнительной погрешности средства измере­ний по известным функциям влияния ряда влияющих величин. Для этого осуществляется измерение значений этих величин и с помо­щью вычислительного устройства, построенного с учетом назван­ных функций влияния, автоматически корректируется выходной сигнал средства измерений.

Метод обратного преобразования (итерационный метод) базируется на использовании дополнительно в составе средства из­мерений кроме прямой измерительной цепи (прямого преобразова­теля), цепи, способной осуществлять обратное преобразование вы­ходного сигнала (обратный преобразователь), имеющей существен­но большую точность, чем цепь прямого преобразования. Результат измерения получают путем итераций. В процессе каждой итерации последовательно осуществляются: прямое преобразование измеряе­мой величины и запоминание результата, обратное преобразование запомненного значения этой величины, прямое преобразование сиг­нала обратного преобразователя, соответствующего запомненному значению измеряемой величины, и сравнение результатов этих двух преобразований, на основе которого формируется корректиру­ющий сигнал. Обратный преобразователь в данном методе играет роль как бы многозначной меры, по которой корректируется ста­тическая характеристика прямого преобразователя. Метод обрат­ного преобразования позволяет уменьшать в зависимости от ис­пользуемого алгоритма коррекции аддитивную и мультипликатив­ную погрешности средств измерений.

Метод образцовых сигналов (образцовых мер) состоит в определении в каждом цикле измерения реальной функции пре­образования средства измерений с помощью образцовых сигналов (мер), т. е. метод состоит в автоматической градуировке средства измерений в каждом цикле. Цикл включает в себя измерение фи­зической величины, поступающей на вход средства измерения, по­очередное измерение одной или нескольких мер, подключаемых вместо измеряемой физической величины на вход средства измерений, и решение системы уравнений с помощью вычислительного устройства, из которого определяется значение измеряемой физи­ческой величины. В этом решении уже учтены изменения реальной статической характеристики, т. е. данный метод сводится к сово­купному измерению. Он позволяет уменьшить аддитивную и муль­типликативную погрешность, а также погрешность нелинейности.

Тестовый метод сводится к проведению совокупных изме­рений. В отличие от метода образцовых сигналов в тестовом ме­тоде в каждом цикле работы средства измерений кроме измерения физической величины, поступающей на вход средства измерений, осуществляют измерение величин-тестов, каждая из которых фор­мируется из меры и измеряемой величины. Значение измеряемой величины определяется из системы уравнений, решаемой с помо­щью вычислительного устройства. По существу данный метод яв­ляется развитием метода образцовых сигналов.