- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
机器学习的模型评估与选择
泛化误差 vs 经验误差
泛化误差:在“未来”样本上的误差
经验误差:在训练集上的误差,亦称“训练误差”
训练数据
模型
新样本数据
新样本属于什么类别?
过拟合 vs 欠拟合
模型选择
三个关键问题:
如何获得测试结果 评估方法
如何评估性能优劣 性能度量
如何判断实质差别 比较检验
评估方法
关键:怎么获得“测试集”?
原则:测试集与训练集“互斥”
常见方法:
留出法(hold-out)
交叉验证法(cross validation)
自助法(bootstrap)
留出法
保持数据分布一致性(例如:分层采样)
多次重复划分(例如:100次随机划分)
测试集不能太大、不能太小(例如:1/5~1/3)
K-折交叉验证法
当K=m时,则得到“留一法”(leave-one-out, LOO)
自助法
基于“自助采样”(bootstrap sampling)
Pull up by your own bootstraps
有放回采样、可重复采样
训练集与原样本集同规模
数据分布有所改变
约有36.8%的样本不出现
包外估计:out-of-bag estimation
模型选择
三个关键问题:
如何获得测试结果 评估方法
如何评估性能优劣 性能度量
如何判断实质差别 比较检验
性能度量
性能度量(performance measure)是衡量模型泛化能力的评价标准,反映了任务需求
使用不同的性能度量往往会导致不同的评判结果
什么样的模型是“好”的,不仅取决于算法和数据,还取决于任务需求。
性能度量
回归任务
分类任务
错误率与精度
查准率、查全率与F1
……
回归模型评估有三种方法,分别是:平均绝对值误差、均方误差和R平方值(1)平均绝对误差(MAE)就是指预测值与真实值之间平均相差多大
(2)均方误差是指参数估计值与参数真值之差平方的期望值,记为MSE。值越小,说明预测模型描述实验数据具有更好的精确度。
(3)R平方值,表征回归方程在多大程度上解释了因变量的变化,或者说方程对观测值的拟合程度如何
性能度量-错误率与精度
错误率
精度
性能度量-查准率与查全率
查准率:precision,准确率,P
预测结果中是正例的比率
查全率:recall,sensitivity, 召回率, R
所有的正例中被正确预测出的比列
True Positive Rate, TPR, (Sensitivity)
True Negative Rate, TNR, (Specificity)
Positive Predictive Value, PPV
False Positive Rate, FPR
False Negative Rate, FNR
False Discovery Rate, FDR
PR图:
学习器A优于学习器C
学习器B优于学习器C
学习器A??学习器B
平衡点 (BEP)
(Break-Even Point, )
学习器A优于学习器B
学习器A优于学习器C
学习器B优于学习器C
性能度量-F1度量
性能度量-ROC与AUC
/shenxiaoming77/article/details集成学习
定义:通过构建并结合多个学习器来完成学习任务,又称为:多分类学习器系统、基于委员会的学习等。
两大类
个体学习器间存在强依赖关系,必须串行生产的序列化方法: Boosting
个体学习器间不存在强依赖关系,可同时生成的并行化方法:Bagging and Random Forest
集成学习-随机森林
Bagging 策略
bootstrap aggregation
从样本集中重采样(有重复的)选出n个样本
在所有属性上,对这n个样本建立分类器(ID3、C4.5、CART、SVM、Logistic回归等)
重复以上两步m次,即获得了m个分类器
将数据放在这m个分类器上,最后根据这m个分类器的投票结果,决定数据属于哪一类
随机森林在bagging基础上做了修改。
从样本集中用Bootstrap采样选出n个样本;
从所有属性中随机选择k个属性,选择最佳分割属性作为节点建立CART决策树;
重复以上两步m次,即建立了m棵CART决策树
这m个CART形成随机森林,通过投票表决结果,决定数据属于哪一类
投票机制
简单投票机制
一票否决(一致表决)
少数服从多数
有效多数(加权)
阈值表决
贝叶斯投票机制
但也可以使用SVM、Logistic回归等其他分类器,习惯上,这些分类器组成的“总分类器”,仍然叫做随机森林。
知识回顾Knowledge Review
您可能关注的文档
最近下载
- 肉牛生产性能测定技术规范-编制说明.pdf VIP
- 中医药治疗乙型肝炎的优势及存在的问题.docx VIP
- 高危新生儿眼病筛查分类管理专家共识(2024).pptx VIP
- 24J306国家建筑标准设计图集.docx
- 汽车轮毂结构优化与轻量化设计研究.docx VIP
- 生物质呋喃基新材料呋喃二甲酸(FDCA)项目可行性研究报告写作模板-申批备案.doc
- 2025年搬运机器人行业研究报告及未来五至十年行业预测分析报告.docx
- FDCA行业动态报告:FDCA发展潜力巨大,下游制成PEF替代空间广阔.docx
- 学前儿童美术教育与活动指导第4版全套教学课件.pptx
- 预算编制服务投标方案(技术标).pdf
文档评论(0)