- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
在线学习算法一致性分析
在线学习算法一致性分析
摘 要:对统计学习理论的研究背景和发展历史进行介绍,总结前人有关基于核的正则化学习算法的研究动态以及已取得的成果。给出正则化在线学习算法的定义,针对不同的抽样背景得出研究正则化在线学习算法的一致性及误差界的方法。
关键词:统计学习理论 正则化 样本误差 逼近误差
中图分类号:O241.3 文献标识码:A 文章编号:1007-3973(2013)001-111-02
1统计学习理论的发展历史及数学基础
统计学习理论是机器学习的一个重要分支,它为人们系统地研究小样本情况下机器学习问题提供有力的理论基础。它的统计推理规则不仅考虑了对渐近性能的要求,而且希望在现有有限信息的条件下得到最优结果。
统计学习理论的基本内容诞生于20世纪六、七十年代,到90年代中期发展到比较成熟。从六、七十年代开始,Vapnik等人致力于此方面研究,90年代中期,Vapnik等又提出了用于模式识别的支持向量机(SVM)见参考文献[1]、[2],还产生了经验风险最小化原则(Empirical Risk Minimizing,ERM)的理论,解决不适定问题(ill-posed problem)的理论,算法复杂度的思想等,此时统计学习理论获得了最大的发展。
机器核学习的假设空间一般采用再生核Hilbert空间。T Evgeniou,M Pontil和T Poggio说明了调控网络建构和支持向量机是解决学习问题的技巧,特别是由稀疏数据逼近多维函数的回归问题。
一般情况下对最小二乘正则化学习算法的一致性进行研究,一致性就是比较接近的程度。其主要思想就是将误差划分为逼近误差和样本误差。逼近误差主要依赖于假设空间的选择,与样本无关,一般用逼近理论解决;样本误差的估计却是一致性分析的主要工作,常常涉及覆盖数,Markov链,样本间的相关性处理等,这里主要研究正则化在线学习算法。
2正则化在线学习算法的一致性分析
2.1正则化在线学习算法
正则化在线学习算法,又是一种递归算法。再生核Hilbert空间的在线学习算法为=-((()-)+),满足:(1)对每一(,)的选取是一致独立同分布,且依赖于;(2)正则化参数≥0;(3)步长0。
可以看出在线学习算法的是取值于再生核Hilbert空间上的随机变量且依赖于(),即∈{,:1≤≤},上面的集合为再生核Hilbert空间的一个有限维子空间。
2.4 完全在线学习算法
对于完全在线学习算法,它是基于Tikhonov正则化机制,以凸损失函数和再生核Hilbert空间为背景,关键是在每一步学习中,正则化参数改变,而以往的半在线算法的正则化参数是固定的,将由正则化参数的变化引起的误差称为漂移误差,同时利用在误差估计分析中损失函数的凸性是来证明算法的一致性。
2.5 最小二乘在线梯度下降算法
对于再生核Hilbert空间中的最小二乘在线梯度下降算法,其无正则化项,即=0。我们主要利用经典的容量无关方法导出误差界和收敛结果,虽然没有确定的再生核Hilbert空间正则项,但是通过选择合适的步长,也能够得到较好的误差收敛速度。利用 和的性质估计‖-‖=()-(),选取两种不同形式的步长,一种是普通的多项式衰退系列形式{ =(),∈}, ∈(0,1),第二种为{ = :∈}, = ()依赖于迭代步数,因此 ()在学习速度 和迭代步数之间有一个权衡,它的选择保证了算法的收敛,分析的关键点为一般误差和积累的样本误差的权值关系。
3 总结
在线学习算法是一种新产生的算法,对于不同的抽样背景,我们有不同的证明算法一致性的方法。但是当样本是弱相关的情况下,证明一致性便增加了很大的难度,尤其是涉及到关于样本点求期望时,所以以上我们所讨论的正则化在线学习算法的共同点是都选取一致独立同分布的样本序列来推导误差界。
参考文献:
[1] V Vapnik.The Nature of Statistical Learning Theory[M].New York:Springer,1995.
[2] V Vapnik.Statistical Learning Theory[M].John Wiley Sons,1998.
[3] T Evgeniou,M Pontil,T Poggio.Regularization networks and support vector machines [J].Advances in Computational Mathmatics,2000(13):1-50.
[4] F Cucker,D X Zhou.Learning Theory: An Approximation
文档评论(0)