机器学习课件-7.提升.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
法律声明  本课件包括演示文稿、示例、代码、题库、视频和 声音等内容,小象学院和主讲老师拥有完全知识产 权的权利;只限于善意学习者在本课程使用,不得 在课程范围外向任何第三方散播。任何其他人或机 构不得盗版、复制、仿造其中的创意及内容,我们 保留一切通过法律手段追究违反者的权利。  课程详情请咨询  微信公众号:小象  新浪微博:ChinaHadoop 互联网新技术在线教育领航者 1/74 提升 邹博 主要内容  分析随机森林的特点  由弱分类器得到强分类器  样本加权、分类器加权  Adaboost 算法  算法描述  前向分步算法+ 指数损失函数  由Adaboost/GBDT 改造随机森林 互联网新技术在线教育领航者 3/74 由决策树和随机森林的关系的思考  随机森林的决策树分别采样建立,相对独立。  思考:  假定当前一定得到了m-1颗决策树,是否可以通 过现有样本和决策树的信息,对第m颗决策树的 建立产生有益的影响呢?  各个决策树组成随机森林后,最后的投票过程 可否在建立决策树时即确定呢? 互联网新技术在线教育领航者 4/74 样本加权 互联网新技术在线教育领航者 5/74 提升的概念  提升是一个机器学习技术,可以用于回归和分类问 题,它每一步产生一个弱预测模型(如决策树) ,并 加权累加到总模型中;如果每一步的弱预测模型生 成都是依据损失函数的梯度方向,则称之为梯度提 升(Gradient boosting) 。  梯度提升算法首先给定一个目标损失函数,它的定 义域是所有可行的弱函数集合(基函数) ;提升算法 通过迭代的选择一个负梯度方向上的基函数来逐渐 逼近局部极小值。这种在函数域的梯度提升观点对 机器学习的很多领域有深刻影响。  提升的理论意义:如果一个问题存在弱分类器,则 可以通过提升的办法得到强分类器。 互联网新技术在线教育领航者 6/74 提升算法  给定输入向量x 和输出变量y 组成的若干训练样本  ˆ   F x (x ,y ),(x ,y ),…,(x ,y ) ,目标是找到近似函数 , 1 1 2 2 n n 使得损失函数L(y,F(x)) 的损失值最小  1  2        L(y,F(x)) 的典型定义为 L y ,F x y F x 2     

文档评论(0)

1243595614 + 关注
实名认证
文档贡献者

文档有任何问题,请私信留言,会第一时间解决。

版权声明书
用户编号:7043023136000000

1亿VIP精品文档

相关文档