计算精度可能需要从两方面考虑,一是算法确定的情况下,需要采取多少位有效数字(或多少个字节的长度)来进 ...
是的,我也隐约感觉应该可以从算法角度入手解决精度问题。不知道是否有这方面书籍或课程推荐? 不考虑溢出,假设原始数字误差是deta,把加减乘除开平方算作一个基本操作
那么计算过程等价于n个基本操作的计算,其误差等于n * deta
所以,原始误差0.001m的1000个长度值加起来,误差可以大到1m
这种事情,经常被各类论文和报道忽略 无心人 发表于 2021-9-28 16:24
不考虑溢出,假设原始数字误差是deta,把加减乘除开平方算作一个基本操作
那么计算过程等价于n个基本操作 ...
请问你看了哪些书籍讲授了这方面的知识? 误差的传递 是可以根据 微分运算来计算的。就是导函数乘以增量。
对于加减法,就是线性累加,$\Delta y = \sum_{i=1}^n \Delta x_i$ ,对于幂函数 $y=x^n$ 就是 $\Delta y = nx^{n-1}\Delta x$,比如除法,即 $y=a/x$ 就是 $\Delta y = -\frac{a}{x^2}\Delta x$
页:
1
[2]