+ -
当前位置:首页 → 问答吧 → PYTHON中计算结果精度的问题

PYTHON中计算结果精度的问题

时间:2011-12-19

来源:互联网

大家好,有一个问题想请教一下各位。
一般为了让数字结果保持特定的精度,如何处理呢?PYTHON里面的round()使用起来似乎有精度的问题,如下面两个例子
1、处理一些除不尽或者位数很多的小数时结果不够准确,会自动把最末尾的0去掉
>>> round(13.949999999999999,3) 
13.95
>>> round(13.949999999999999,4) --想要的结果为13.9500
13.95

2、如果在round()函数起作用之前,结果的精度就已经丢失(如下面的1/20),那么以后再使用round()就无效了。除了在计算前把除数或者被除数转换为float类型,还有没有更好的办法?
>>> round(1/20,2
0.0
>>> round(1.0/20,2)
0.05
>>> round(float(1)/20,2) 
0.05

作者: wh62592855   发布时间: 2011-12-19

1.

Python code

>>> import decimal
>>> D=decimal.Decimal
>>> a=D('13.949999999999999')
>>> a
Decimal('13.949999999999999')
>>> round(a,3)
13.949999999999999
>>> a
Decimal('13.949999999999999')
>>> print (a.quantize(D('0.001'),rounding=decimal.ROUND_UP))
13.950
>>> print (a.quantize(D('0.0001'),rounding=decimal.ROUND_UP))
13.9500



即使在数据库中要求做精确计算的字段也是要用decimal类型的

作者: askandstudy   发布时间: 2011-12-19

第2个问题不知道了,看楼下高手来解答

作者: askandstudy   发布时间: 2011-12-19