AdaBoost简介及训练误差分析.docVIP

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
AdaBoost简介及训练误差分析.doc

AdaBoost 主要内容: AdaBoost简介 训练误差分析 一、AdaBoost简介: 给定训练集:,其中,表示的正确的类别标签, 训练集上样本的初始分布: 对, 计算弱分类器,该弱分类器在分布上的误差为: 计算该弱分类器的权重: 更新训练样本的分布:,其中为归一化常数。 最后的强分类器为: 二、训练误差分析 记,由于弱分类器的错误率总是比随机猜测(随机猜测的分类器的错误率为0.5)低,所以,则训练误差为: 。 记,则。 证明: 1、对进行迭代展开 令 。 由于是一个分布, 所以: 所以。 训练误差为 * 。 所以,为训练误差的上界。 相当于损失函数取,则经验风险/测试误差为,使该经验风险最小的估计为。该风险称为指数风险。 在*式中, 当样本分对时,,所以,是一个较小的正数。 当样本分错时,,所以。 所以将变为,相当于对上述两种错误率都放大了,这样不等式成立。 证明; 问题:给定弱分类器的集合:,确定弱分类器及其权重。 具体实现时,首先选一个错误率最小的弱分类器,然后确定其权重,所以是一个贪心算法。(相当于对,前向逐步递增特征选择,后面再详细描述) ,因为 即为分类正确的样本的集合,为分类错误的样本的集合。 ,两边同乘以 正确率=,错误率=, 所以 所以。 当很小时,很大,即错误率很小的弱分类器的权重很大。 训练误差 令,由于弱分类器的错误率总是比随机猜测(随机猜测的分类器的错误率为0.5),所以, 所以 (不等式可利用在处Taylor展开得到) 令,满足即为所有中最小的一个。 则训练误差的上界为: 所以,当,即训练误差的上界随T的增加指数减小。 AdaBoost相当于最大贝叶斯后验 , 当损失函数取时,则上述表达式为经验风险,当样本很多时,样本均值趋近于期望,即期望风险/测试误差为, ,表示的概率密度函数 (上一步怎么推导出这一步我开始看不懂) 我们目标是风险最小的,即 所以 所以 , 为最大贝叶斯后验。 上面证明了收敛性,最后的强分类器收敛于最大后验概率。 AdaBoost相当于前向逐步递增加法建模 , 可视为基展开,其中为基函数,为对应基函数的权重。对基展开,通常是给定基函数,一次联合求出所有的基函数中的参数及其权重(如用最小二乘法或极大似然估计方法)。 而AdaBoost为一个逐步递增的方式增加基函数,并计算其权重,不调整已添加的基函数中的参数及其权重。 假设第步的模型为: 当损失函数取时,则第T步新增加的基函数及其权重要使得训练误差/经验风险最小,即 , , 其中。因为每个不依赖于,所以可以看作是应用于每个观测的权值,该权值依赖于,所以,每个样本的权值随每次迭代改变。 上述问题可以分两步实现: 第一步:首先选一个错误率最小的弱分类器, 。 第二步:然后确定其权重 因为 将代入,即可得到 , 其中表示错误率。 注:根据我的理解,

文档评论(0)

docinppt + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档