• R语言
  • 关于算法收敛性问题!

看到很多迭代算法的收敛准则往往两条:1)最大迭代数;2)delta S<用户指定值



我想:这当中的一个理论基础难道是我们泛函中学到的不动点理论吗?



好像柯西收敛准则是不动点理论的一个特例吗



还有Leibniz 条件



欢迎大家讨论.







另外,感觉COS上问问题的占大多数,我觉得论坛要往纵向发展应该多加入一些讨论的贴子,



我看有的发展比较火爆的论坛,当中的讨论的帖子是很多的,一个主题有几十个跟贴.特别是国外的某些学术论坛.



并且讨论的内容越基础对大家的提升越明显,很多现有的这算法那算法其实都是由这些基本算法发展起来的并且近似或者放宽了当中的一些条件,加入了作者自己对问题的见解,但是在这些算法或者方法的应用中,这些见解往往被大家所忽视了..而想通过基本问题的讨论让很多问题越辨越明.





另外,整个论坛整体上还是相当不错的.从我第一次到这里,就被大家的热情所感动了.
6 天 后
最大迭代次数是为了避免无限等待那些可能不收敛的算法;



delta S<用户指定值则要看你的问题是什么了,例如求解方程f(x)=0,那么当f(x)的绝对值小于一个很小的值时算法停止迭代,这容易理解;再如优化问题中的梯度下降算法,当步长足够小的时候能保证迭代总是朝函数值不增的方向前进,那么当下一步跟上一步之间的函数值差异足够小的时候说明迭代走到了一个“平地”,可能就是局部最小值了,所以也就停止迭代。



我看不出这两点准则和不动点理论有什么关系。
你的问题不明确



不过很多迭代算法确实可以用压缩映像原理来解释。