机器学习之模型评估与模型选择.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
机器学习的模型评估与选择 泛化误差 vs 经验误差 泛化误差:在“未来”样本上的误差 经验误差:在训练集上的误差,亦称“训练误差” 训练数据 模型 新样本数据 新样本属于什么类别? 过拟合 vs 欠拟合 模型选择 三个关键问题: 如何获得测试结果  评估方法 如何评估性能优劣  性能度量 如何判断实质差别  比较检验 评估方法 关键:怎么获得“测试集”? 原则:测试集与训练集“互斥” 常见方法: 留出法(hold-out) 交叉验证法(cross validation) 自助法(bootstrap) 留出法 保持数据分布一致性(例如:分层采样) 多次重复划分(例如:100次随机划分) 测试集不能太大、不能太小(例如:1/5~1/3) K-折交叉验证法 当K=m时,则得到“留一法”(leave-one-out, LOO) 自助法 基于“自助采样”(bootstrap sampling) Pull up by your own bootstraps 有放回采样、可重复采样 训练集与原样本集同规模 数据分布有所改变 约有36.8%的样本不出现 包外估计:out-of-bag estimation 模型选择 三个关键问题: 如何获得测试结果  评估方法 如何评估性能优劣  性能度量 如何判断实质差别  比较检验 性能度量 性能度量(performance measure)是衡量模型泛化能力的评价标准,反映了任务需求 使用不同的性能度量往往会导致不同的评判结果 什么样的模型是“好”的,不仅取决于算法和数据,还取决于任务需求。 性能度量 回归任务 分类任务 错误率与精度 查准率、查全率与F1 …… 回归模型评估有三种方法,分别是:平均绝对值误差、均方误差和R平方值 (1)平均绝对误差(MAE)就是指预测值与真实值之间平均相差多大 (2)均方误差是指参数估计值与参数真值之差平方的期望值,记为MSE。值越小,说明预测模型描述实验数据具有更好的精确度。 (3)R平方值,表征回归方程在多大程度上解释了因变量的变化,或者说方程对观测值的拟合程度如何 性能度量-错误率与精度 错误率 精度 性能度量-查准率与查全率 查准率:precision,准确率,P 预测结果中是正例的比率 查全率:recall,sensitivity, 召回率, R 所有的正例中被正确预测出的比列 True Positive Rate, TPR, (Sensitivity) True Negative Rate, TNR, (Specificity) Positive Predictive Value, PPV False Positive Rate, FPR False Negative Rate, FNR False Discovery Rate, FDR PR图: 学习器A优于学习器C 学习器B优于学习器C 学习器A??学习器B 平衡点 (BEP) (Break-Even Point, ) 学习器A优于学习器B 学习器A优于学习器C 学习器B优于学习器C 性能度量-F1度量 性能度量-ROC与AUC /shenxiaoming77/article/details集成学习 定义:通过构建并结合多个学习器来完成学习任务,又称为:多分类学习器系统、基于委员会的学习等。 两大类 个体学习器间存在强依赖关系,必须串行生产的序列化方法: Boosting 个体学习器间不存在强依赖关系,可同时生成的并行化方法:Bagging and Random Forest 集成学习-随机森林 Bagging 策略 bootstrap aggregation 从样本集中重采样(有重复的)选出n个样本 在所有属性上,对这n个样本建立分类器(ID3、C4.5、CART、SVM、Logistic回归等) 重复以上两步m次,即获得了m个分类器 将数据放在这m个分类器上,最后根据这m个分类器的投票结果,决定数据属于哪一类 随机森林在bagging基础上做了修改。 从样本集中用Bootstrap采样选出n个样本; 从所有属性中随机选择k个属性,选择最佳分割属性作为节点建立CART决策树; 重复以上两步m次,即建立了m棵CART决策树 这m个CART形成随机森林,通过投票表决结果,决定数据属于哪一类 投票机制 简单投票机制 一票否决(一致表决) 少数服从多数 有效多数(加权) 阈值表决 贝叶斯投票机制 但也可以使用SVM、Logistic回归等其他分类器,习惯上,这些分类器组成的“总分类器”,仍然叫做随机森林。 知识回顾Knowledge Review

文档评论(0)

zxiangd + 关注
实名认证
文档贡献者

本人从事教育还有多年,在这和大家互相交流学习

1亿VIP精品文档

相关文档