统计学提升方法概论.pdfVIP

  1. 1、本文档共58页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
统计学提升方法概论

目录 1. 提升方法AdaBoost算法 2. AdaBoost算法的训练误差分析 3. AdaBoost算法的解释 4. 提升树 一、提升方法AdaBoost算法 AdaBoost 的起源 怎样实现弱学习转为强学习 Bagging 怎样组合弱分类器 AdaBoost 的提出 AdaBoost 的基本概念 提升方法的基本思路 1984,Kearns和Valiant: 强可学习(strongly learnable)和弱可学习(weakly learnable) 在概率近似正确 (probably approximately correct, PAC)学习的框 架中,一个概念 (类),如果存在一个多项式的学习算法能够学习 它,并且正确率很高,称这个概念是强可学习的; 一个概念 (类),如果存在一个多项式的学习算法能够学习它,学 习的正确率仅比随机猜测略好,则称这个概念是弱可学习的。 1989, Schapire,证明: 在PAC学习的框架下,一个概念是强可学习的充分必要条件是这个 概念是弱可学习。 提升方法的基本思路 问题的提出: 只要找到一个比随机猜测略好的弱学习算法就可以 直接将其提升为强学习算法,而不必直接去找很难 获得的强学习算法。 提升方法的基本思路 怎样实现弱学习转为强学习? 例如:学习算法A在a情况下失效,学习算法 B在b情况下失效,那么在a情况下可以用B算 法,在b情况下可以用A算法解决。这说明通 过某种合适的方式把各种算法组合起来,可 以提高准确率。 为实现弱学习互补,面临两个问题: (1 )怎样获得不同的弱分类器? (2 )怎样组合弱分类器? 提升方法的基本思路 u怎样获得不同的弱分类器? u使用不同的弱学习算法得到不同基本学习器 u 参数估计、非参数估计… u使用相同的弱学习算法,但用不同的参数 uK-Mean不同的K,神经网络不同的隐含层… u相同输入对象的不同表示凸显事物不同的特征 u使用不同的训练集 装袋 (bagging ) 提升 (boosting ) 提升方法的基本思路 Bagging ,也称为自举汇聚法(boostrap aggregating) 从原始数据集选择S次后得到S个新数据集 新数据集和原数据集的大小相等 每个数据集都是通过在原始数据集中随机选择样本来进 行替换而得到的。 S个数据集建好之后,将某个学习算法分别作用于每个数 据集就得到S个分类器。 选择分类器投票结果中最多的类别作为最后的分类结果。 改进的Bagging算法,如随机森林等。 提升方法的基本思路 u怎样组合弱分类器? u多专家组合 一种并行结构,所有的弱分类器都给出各自的预测 结果,通过 “组合器”把这些预测结果转换为最终 结果。 eg.投票 (voting )及其变种、混合专家模型 u多级组合 一种串行结构,其中下一个分类器只在前一个分类 器预测不够准 (不够自信)的实例上进行训练或检 测。 eg. 级联算法 (cascading ) AdaBoost算法 1990年,Schapire最先构造出一种多项式级的算法, 即最初的Boost算法; 1993年,Drunker和Schapire第一次将神经网络作为 弱学习器,应用Boosting算法解决OCR 问题; 1995年,Freund和Schapire提出了 Adaboost(Adaptive Boosting)算法,效率和原来 Boosting算法一样,但是不需要任何关于弱学习器性 能的先验知识,可以非常容易地应用到实际问题中。 AdaBoost算法 AdaBoost Adaptive Boosting A learning algorithm Building a strong classifier a lot of weaker ones AdaBoost算

文档评论(0)

小茗同学 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档