Методы нормирования средств измерений
05.11.2016 11:47
Под нормированием погрешностей подразумевается установление предельных значений погрешностей для данного типа средств измерений.
Принципы нормирования погрешностей описаны в стандартах ГОСТ 8401-80.
Нормируются основные и дополнительные составляющие погрешности. Им присваивается класс точности средств измерений – это характеристика, определяющая гарантированные границы значений основных и дополнительных погрешностей.
При эксплуатации средств измерений производится их периодическая поверка на соответствие требуемым метрологическим характеристикам.
В основном применяют четыре способа нормирования погрешностей:
При чисто мультипликативной погрешности:
gs=(D/x)·100%, (1.7)
Является погрешностью чувствительности СИ,
Обозначается на шкале в процентах от Хизм (числовое значение обведено кружком).
D= gs·х /100% = j(х), (1.8)
Dшум<D<Dпредельная (перегрузка)
При чисто аддитивной погрешности:
ga=(D/xн)·100%, (1.9)
Погрешность нуля, постоянна во всем рабочем диапазоне измерений.
Для большинства приборов ga» g0
D=ga· хк/100%, (1.10)
где хк – конечное значение шкалы прибора.
Указывается в процентах на шкале прибора.
При наличии аддитивной и мультипликативной составляющих:
D = Dа + Dm
D = (ga·xk+gs·х)/100% (1.11)
d= D/xk = g0+gs·x/xk
Класс точности может указываться в технической документации на СИ, например, в следующем виде:
d = 0,02/0,01
d = (0,01+0,02·x/xk)/100% (1.12)
gk= gн+gs (погрешность СИ в конце шкалы)
gs= gк- gн= 0,02 - 0,01 = 0,01 (1.13)
0,02 (мультипликативная составляющая),
gн=0,01 (аддитивная составляющая, погрешность в начале шкалы СИ).
Особые случаи нормирования погрешностей средств измерения могут быть представлены аналитическими зависимостями, например, в виде полинома, а также в виде таблиц, графиков и т.п.
Нижний предел измеряемой величины ограничен погрешностью, обусловленной уровнем собственных шумов СИ, а верхний предел измерений ограничен его перегрузочной способностью.