某测距仪标称测距精度为1%*R+1m(二阶原点矩),其中R为真实距离
在考核中,测量了100组数据R'(1:100),问题是这100组数据是在不同距离R上得到的。
最终如何利用这100组数据得到测距精度是否合格的判断?
一种做法是:对这100组数据R'先根据测量时刻的R得到误差D(1:100),然后凡是超出1m的D都减去1m,得到D'。
然后利用这100个D'除R(1:100),得到100组相对误差。最后利用这100组相对误差求二阶原点矩,并与1%做比较。
这里有一个问题。假设极端情况下,100个R都是50m,然后得到的R'都是50.9m。那么按照上述方法,计算出来的相对二阶原点矩近似是1.8%,超差不合格。
但是从直观上来看,误差0.9m<1m,很显然是合格的。
这个问题怎么解?
--
FROM 39.144.69.*