仪表误差的表示方法与仪表的精度等级
通常,仪表测量结果的准确程度被称为仪表的准确度,或者精度;而准确度等级实际上也就是仪表的精度等级。如果引用误差越小,则表示仪表的准确度越高。然而,引用误差与仪表的量程范围(或量程值域)有关,所以,在使用相同准确度的仪表时,仪表人员一般会采取压缩量程范围以减小测量中可能出现的误差。
一个仪表的误差值小,则说明该仪表的准确度等级高。在工业测量领域中,准确度等级往往代表着一个仪表质量的高低程度,可以说,准确度等级是衡量仪表质量优劣的关键指标之一。
一、仪表误差的表示方法
误差的表示方法分有三种,分别为:引用误差、相对误差和绝对误差。
1.引用误差
引用误差=(绝对误差的最大值/仪表量程)×100%,例如:2%F.S。
2.相对误差
相对误差=(绝对误差的最大值/仪表测量值)×100%,例如:≤2%。
3.绝对误差
绝对误差指的是误差偏离真实值的大小程度,例如:≤±0.01m³/s。
二、仪表的精度等级
精度等级,实际上就是最大引用误差值去掉正、负号及百分号。我国规定的允许误差大小分成几个等级。其中工业仪表精度等级有:0.005、0.02、0.05、0.1、0.2、0.35、0.4、0.5、1.0、1.5、2.5、4.0等等,其中,等级级数越小,所代表的精度等级也就越高。一般情况下,工业仪表的精度等级为0.5~4级,仪表出厂时其精度通常会被标记在仪表刻度标尺或其铭牌上。
工业过程测量和控制用检测仪表和显示仪表精确度等级有16个级别:0.01,0.02,(0.03),0.05,0.1,0.2,(0.25),(0.3),(0.4),0.5,1.0,1.5,(2.0),2.5,4.0,5.0,其中括号里的五个级别一般不被推荐使用,具体依据标准以《GBT 13283-2008 工业过程测量和控制用检测仪表和显示仪表精确度等级》为准。
那么仪表的精度该怎么计算呢?其实,只需按照公式计算即可:仪表精度=(绝对误差的最大值/仪表量程)×100% 。以上公式取绝对值后再去掉“%”就是精度等级的值数。
仪表精度是由传感器的基本误差极限和影响量(如温度变化、湿度变化、电源波动、频率改变等)引起的改变量极限来确定的。 公式为?:δ=(△max)/(Аmax)×100%。其中,δ为精度等级;△max为最大测量误差;Аmax为仪表量程。