Название: Метрология - Сергеев А.Г.

Жанр: Маркетинг

Рейтинг:

Просмотров: 2177


Прогрессирующая (дрейфовая) погрешность — это непредсказуемая погрешность, медленно меняющаяся во времени. Впервые это понятие было введено в монографии М.Ф. Маликова "Основы метрологии" [17], изданной в 1949 г. Отличительные особенности прогрессирующих погрешностей:

• они могут быть скорректированы поправками только в данный момент времени, а далее вновь непредсказуемо изменяются;

• изменения прогрессирующих погрешностей во времени — нестационарный случайный процесс, и поэтому в рамках хорошо разработанной теории стационарных случайных процессов они могут быть описаны лишь с известными оговорками.

Прогрессирующая погрешность — это понятие, специфичное для нестационарного случайного процесса изменения погрешности во времени, оно не может быть сведено к понятиям случайной и систематической погрешностей. Последние характерны лишь для стационарных случайных процессов. Прогрессирующая погрешность может возникнуть вследствие как непостоянства во времени текущего математического ожидания нестационарного случайного процесса, так и изменения во времени его дисперсии или формы закона распределения.

Понятие прогрессирующей погрешности широко используется при исследовании динамики погрешностей СИ [5] и метрологической надежности последних.

Грубая погрешность (промах) — это случайная погрешность результата отдельного наблюдения, входящегов ряд измерений, которая для данных условий резко отличается от остальных результатов этого ряда. Они, как правило, возникают из-за ошибок или неправильных действий оператора (его психофизиологического состояния, неверного отсчета, ошибок в записях или вычислениях, неправильного включения приборов или сбоев в их работе и др.). Возможной причиной возникновения промахов также могут быть кратковременные резкие изменения условий проведения измерений. Если промахи обнаруживаются в процессе измерений, то результаты, их содержащие, отбрасывают. Однако чаще всего промахи выявляют только при окончательной обработке результатов измерений с помощью специальных критериев, которые рассмотрены в гл. 7.

По способу выражения различают абсолютную, относительную и приведенную погрешности.

Абсолютная погрешность описывается формулой (4.1) и выражается в единицах измеряемой величины. Однако она не может в полной мере служить показателем точности измерений, так как одно и то же ее значение, например, Д = 0,05 мм при X = 100 мм соответствует достаточно высокой точности измерений, а при X — 1 мм — низкой. Поэтому и вводится понятие относительной погрешности. Относительная погрешность — это отношение абсолютной погрешности измерения к истинному значению измеряемой величины:

                                                  (4.2)

Эта наглядная характеристика точности результата измерения не годится для нормирования погрешности СИ, так как при изменении значений Q принимает различные значения вплоть до бесконечности при Q = 0. В связи с этим для указания и нормирования погрешности СИ используется еще одна разновидность погрешности — приведенная.

Приведенная погрешность — это относительная погрешность, в которой абсолютная погрешность СИ отнесена к условно принятому значению QN, постоянному во всем диапазоне измерений или его части:

                                        (4.3)

Условно принятое значение QN называют нормирующим. Чаще всего за него принимают верхний предел измерений данного СИ, применительно к которым и используется главным образом понятие "приведенная погрешность".

В зависимости от места возникновения различают инструментальные, методические и субъективные погрешности.

Инструментальная погрешность обусловлена погрешностью применяемого СИ. Иногда эту погрешность называют аппаратурной.

Методическая погрешность измерения обусловлена:

• отличием принятой модели объекта измерения от модели, адекватно описывающей его свойство, которое определяется путем измерения;

• влиянием способов применения СИ. Это имеет место, например, при измерении напряжения вольтметром с конечным значением внутреннего сопротивления. В данном случае вольтметр шунтирует участок цепи, на котором измеряется напряжение, и оно оказывается меньше, чем было до присоединения вольтметра;

• влиянием алгоритмов (формул), по которым производятся вычисления результатов измерений;

• влиянием других факторов, не связанных со свойствами используемых средств измерения.

Отличительной особенностью методических погрешностей является то, что они не могут быть указаны в нормативно-технической документации на используемое СИ, поскольку от него не зависят, а должны определяться оператором в каждом конкретном случае. В связи с этим оператор должен четко различать фактически измеряемую им величину и величину, подлежащую измерению.

 


Оцените книгу: 1 2 3 4 5