PYTHON中计算结果精度的问题
大家好,有一个问题想请教一下各位。
一般为了让数字结果保持特定的精度,如何处理呢?PYTHON里面的round()使用起来似乎有精度的问题,如下面两个例子
1、处理一些除不尽或者位数很多的小数时结果不够准确,会自动把最末尾的0去掉
>>> round(13.949999999999999,3)
13.95
>>> round(13.949999999999999,4) --想要的结果为13.9500
13.95
2、如果在round()函数起作用之前,结果的精度就已经丢失(如下面的1/20),那么以后再使用round()就无效了。除了在计算前把除数或者被除数转换为float类型,还有没有更好的办法?
>>> round(1/20,2
0.0
>>> round(1.0/20,2)
0.05
>>> round(float(1)/20,2)
0.05
[解决办法]
1.
- Python code
>>> import decimal>>> D=decimal.Decimal>>> a=D('13.949999999999999')>>> aDecimal('13.949999999999999')>>> round(a,3)13.949999999999999>>> aDecimal('13.949999999999999')>>> print (a.quantize(D('0.001'),rounding=decimal.ROUND_UP))13.950>>> print (a.quantize(D('0.0001'),rounding=decimal.ROUND_UP))13.9500
[解决办法]
考虑用分数吧。
[解决办法]
>>> 13.949999999999999
13.95
哪,没做啥事输入跟显示的都不一样了,因为浮点数据是用2进制储存,必然不能完美对应10进制,所以建议前面说的用decimal模块处理一下吧