精确度与精度

精确度与精度,第1张

精度应该是设备能读出的的最小刻度值,比如卷尺的测试精度是1mm,卡尺的测量精度是002mm,也就是说卷尺可以精确到毫米,1mm一下的数字都是估计的,卡尺可以精确到002mm。

精确度(precision)是指使用同种备用样品进行重复测定所得到的结果之间的重现性。

准确度:测量结果与被测量真值之间的一致程度,测量仪器给出接近于真值的响应的能力。

晕死,精度是指的各种数据类型的位宽啊:

byte 8 位

short 16 位

int 32 位

long 64 位

float 32 位

double 64 位

char 16 位

数据降级都会损失精度的,体现在各种数据类型能表示的范围不一样。举个例子,float 32 位,根据 IEEE 754 32位 标准,首位正负位,后面 8 位指数位,余下 23 位是小数位;

double 64 位,根据 IEEE 754 64位 标准,首位正负位,后面 11 位指数位,余下 52 位是小数位。

相比之下当然位数愈多精度愈高了,其他整数类型的精度就简单了,首位表示正负,所有的都表示数值,位数越高当然精度越高。

目前大多数高级语言(包括C)都按照IEEE-754标准来规定浮点数的存储格式,IEEE754规定,单精度浮点数用4字节存储,双精度浮点数用8字节存储,分为三个部分:符号位、阶和尾数。阶即指数,尾数即有效小数位数。单精度格式阶占8位,尾数占24位,符号位1位,双精度则为11为阶,53位尾数和1位符号位,如下图所示:

单精度浮点数存储格式

s 指数 尾数

31 30 23 22 0

双精度浮点数存储格式 s 指数 尾数

63 62 52 51 0

细心的人会发现,单双精度各部分所占字节数量比实际存储格式都了一位,的确是这样,事实是,尾数部分包括了一位隐藏位,允许只存储23位就可以表示24位尾数,默认的1位是规格化浮点数的第一位,当规格化一个浮点数时,总是调整它使其值大于等于1而小于2,亦即个位总是为1。例如1100B,对其规格化的结果为11乘以2的三次方,但个位1并不存储在23位尾数部分内,这个1是默认位。

阶以移码的形式存储。对于单精度浮点数,偏移量为127(7FH),而双精度的偏移量为1023(3FFH)。存储浮点数的阶码之前,偏移量要先加到阶码上。前面例子中,阶为2的三次方,在单精度浮点数中,移码后的结果为127+3即130(82H),双精度为1026(402H)。

浮点数有两个例外。数00存储为全零。无限大数的阶码存储为全1,尾数部分全零。符号位指示正无穷或者负无穷。

下面举几个例子:

单精度浮点数 十进制 规格化 符号 移阶码 尾数

-12 -11x23 1 10000010 1000000 00000000 00000000

025 10x2-2 0 01111101 0000000 00000000 00000000

所有字节在内存中的排列顺序,intel的cpu按little endian顺序,motorola的cpu按big endian顺序排列。

=====================================

比如+178125把它按照单精度浮点数的格式进行规格化。

首先+178的二进制表示为1011 0010

0125为0001

那么它就是10110010001,可以看到它的指数应该是7=0b0111它的移码为100000111,相加之后

应该是

0 1000 0110 0110 0100 0100,0。。。

精度:人为得到结果与实际真实值比较的差别。

精密度:在规定测试条件下,同一样品经过多次测定所得到结果之间的接近程度。

正确度:是表示测量结果中系统误差大小的程度。

准确度:在一定测量条件下,观测值及其函数的估值与其真值的偏离程度,计算量或测量量与真值相接近的程度。

由于种种原因,任何一个仪表在测量时都有误差。仪表指示值总是被测量实际值的近似值,而仪表准确度就是说明仪表指示值与被测量实际值之间的近似程度。准确度是用误差来表示的。所谓误差,是说明仪表指示值与被测量实际值之间差异程度的。因此,仪表准确度越高,其近似程度越高,误差越小。

在工业测量中,为了便于表示仪表的质量,通常用准确度等级来表示仪表的准确程度。准确度等级就是最大引用误差去掉正、负号及百分号。准确度等级是衡量仪表质量优劣的重要指标之一。我国工业仪表等级分为01,02,05,10,15,25,50七个等级,并标志在仪表刻度标尺或铭牌上,数字越小,说明精度等级越高,与实际值的偏差越小。仪表准确度习惯上称为精度,准确度等级习惯上称为精度等级。

精度等级是以它的允许误差占表盘刻度值的百分数来划分的,其精度等级数越大允许误差占表盘刻度极限值越大。量程越大,同样精度等级的,它测得数值的绝对值允许误差越大。经常使用的仪表精度为25级、15级,如果是10级和05级的属于高精度,现在有的数字仪表已经达到025级。

误差是实际值与测量值之间的差异。

分辨率和精度在某些场合是一致的,比如说:某个电压表的分辨率是01V,也就是说它能分辨出01V的差异,这个时候,精度的意思和分辨率一致,也是电压表的测量精度。

误差值应该比分辨率和精度要低,如果分辨率和精度是01V,误差就要低于01V,比如说是005V,

因为误差有可能是大,也有可能是小,所以,误差都是用±来表示,比如误差是±005V。

理论上的精度简单地说就是对象的实际值和理想值之间的误差的允许范围。

理论上的测量精度是被测对象的实际值和测量结果值之间的误差的允许范围。

实际上以上的理论定义的精度值是无法得到的。因此就有实际测量误差得概念和获得方法。

实际测量一般用测量器具的可判读精度来体现。就是说从测量器具可以确切判读出的值的大小,如1毫米、01度等等,以刻度或数字显示等等体现。

这里就产生一个测量器具本身的精度的问题和测量人员的操作精度的问题。带来的后果就是操作、判读有误差,以及用器具不能足够准确地得到测量值。结果每次所测到的值可能都不一样。

为了减少人员和器具带来的误差,一是可以用多次测量作平均来解决(这里只是为了“减少”)。更重要的是对人员的训练和对器具的计量检验和校准。

以上就是关于精确度与精度全部的内容,包括:精确度与精度、java中的精度是什么意思啊、什么是精度等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:聚客百科

原文地址: http://juke.outofmemory.cn/life/3635423.html

()
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-22
下一篇 2023-04-22

发表评论

登录后才能评论

评论列表(0条)

保存