python中实现精确的浮点数运算详解
为什么说浮点数缺乏精确性?
在开始本文之前,让我们先来谈谈浮点数为什么缺乏精确性的问题,其实这不是Python的问题,而是实数的无限精度跟计算机的有限内存之间的矛盾。
举个例子,假如说我只能使用整数(即只精确到个位,计算机内的浮点数也只有有限精度,以C语言中的双精度浮点数double为例,精度为52个二进制位),要表示任意实数(无限精度)的时候我就只能通过舍入(rounding)来近似表示。
比如1.2我会表示成1,2.4表示成2,3.6表示成4.
所以呢?
在算1.2-1.2的时候,由于计算机表示的问题,我算的实际上是1-1,结果是0,碰巧蒙对了;
在算1.2+1.2-2.4的时候,由于计算机表示的问题,我算的实际上是1+1-2,结果是0,再次蒙对了;
但是在算1.2+1.2+1.2-3.6的时候,由于计算机表示的问题,我算的实际上是1+1+1-4,结果是-1,运气没那么好啦!
这里的1.2,2.4,3.6就相当于你问题里的0.1,0.2和0.3,1,2,4则是真正在计算机内部进行运算的数值,我说清楚了吗?
其他请看IEEE754浮点数标准,比如CSAPP第二章啥的(虽然估计你没兴趣看)。
另:不仅仅是浮点数的在计算机内部的表示有误差,运算本身也可能会有误差。比如整数2可以在计算机内准确表示,但是要算根号2就有误差了;再比如两个浮点数相除,本来两个数都是精确表示的,但除的结果精度却超出了计算机内实数的表示范围,然后就有误差了。
好了,下面话不多说了,开始本文的正文:
起步
浮点数的一个普遍的问题是它们不能精确的表示十进制数。
>>>a=4.2 >>>b=2.1 >>>a+b 6.300000000000001 >>>(a+b)==6.3 False >>>
这是由于底层CPU和IEEE754标准通过自己的浮点单位去执行算术时的特征。看似有穷的小数,在计算机的二进制表示里却是无穷的。
一般情况下,这一点点的小误差是允许存在的。如果不能容忍这种误差(比如金融领域),那么就要考虑用一些途径来解决这个问题了。
Decimal
使用这个模块不会出现任何小误差。
>>>fromdecimalimportDecimal >>>a=Decimal('4.2') >>>b=Decimal('2.1') >>>a+b Decimal('6.3') >>>print(a+b) 6.3 >>>(a+b)==Decimal('6.3') True
尽管代码看起来比较奇怪,使用字符串来表示数字,但是Decimal支持所有常用的数学运算。decimal模块允许你控制计算的每一方面,包括数字位数和四舍五入。在这样做之前,需要创建一个临时上下文环境来改变这种设定:
>>>fromdecimalimportDecimal,localcontext >>>a=Decimal('1.3') >>>b=Decimal('1.7') >>>print(a/b) 0.7647058823529411764705882353 >>>withlocalcontext()asctx: ...ctx.prec=3 ...print(a/b) ... 0.765 >>>withlocalcontext()asctx: ...ctx.prec=50 ...print(a/b) ... 0.76470588235294117647058823529411764705882352941176 >>>
由于Decimal的高精度数字自然也就用字符串来做展示和中转。
总结
总的来说,当涉及金融领域时,哪怕是一点小小的误差在计算过程中都是不允许的。因此decimal模块为解决这类问题提供了方法。
好了,以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对毛票票的支持。