分类:基本概念、决策树与模型评估.ppt

分类:基本概念、决策树与模型评估.ppt

  1. 1、本文档共92页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

模型过分拟合和拟合不足当决策树很小时,训练和检验误差都很大,这种情况称为模型拟合不足。出现拟合不足的原因是模型尚未学习到数据的真实结构。随着决策树中结点数的增加,模型的训练误差和检验误差都会随之下降。当树的规模变得太大时,即使训练误差还在继续降低,但是检验误差开始增大,导致模型过分拟合第64页,共92页,2024年2月25日,星期天模型模型过分拟合和拟合不足过分拟合第65页,共92页,2024年2月25日,星期天导致过分拟合的原因第66页,共92页,2024年2月25日,星期天导致过分拟合的原因噪声导致的过分拟合例子:哺乳动物的分类问题十个训练记录中有两个被错误标记:蝙蝠和鲸如果完全拟合训练数据,决策树1的训练误差为0,但它在检验数据上的误差达30%.人和海豚,针鼹误分为非哺乳动物相反,一个更简单的决策树2,具有较低的检验误差(10%),尽管它的训练误差较高,为20%决策树1过分拟合了训练数据。因为属性测试条件4条腿具有欺骗性,它拟合了误标记的训练纪录,导致了对检验集中记录的误分类第67页,共92页,2024年2月25日,星期天噪声导致的过分拟合(例子)噪声导致决策边界的改变第68页,共92页,2024年2月25日,星期天缺乏代表性样本导致的过分拟合根据少量训练记录做出分类决策的模型也容易受过分拟合的影响。由于训练数据缺乏具有代表性的样本,在没有多少训练记录的情况下,学习算法仍然细化模型就会产生过分拟合。第69页,共92页,2024年2月25日,星期天第70页,共92页,2024年2月25日,星期天例子:五个训练记录,所有的记录都是正确标记的,对应的决策树尽管训练误差为0,但检验误差高达30%人、大象和海豚被误分类,因为决策树把恒温但不冬眠的动物分为非哺乳动物。决策树做出这样的分类决策是因为只有一个训练记录(鹰)具有这些特征。这个例子清楚的表明,当决策树的叶结点没有足够的代表性样本时,很可能做出错误的预测。第71页,共92页,2024年2月25日,星期天过分拟合与多重比较模型的过分拟合可能出现在使用多重比较过程的算法中多重比较的例子:考虑未来十个交易日股市是升还是降一个人十次猜测至少正确预测八次的概率是:0.0547假设从50个股票分析家中选择一个投资顾问,策略是选择在未来的十个交易日做出最多正确预测的分析家。该策略的缺点是,即使所有的分析家都用随机猜测做出预测,至少有一个分析家做出八次正确预测的概率是:1-(1-0.0547)50=0.9399,这一结果相当高。第72页,共92页,2024年2月25日,星期天多重比较过程与模型过分拟合有什么关系?在决策树增长过程中,可以进行多种测试,以确定哪个属性能够最好的划分训练数据。在这种情况下,算法实际上是使用多重比较过程来决定是否需要扩展决策树。当候选属性多,训练记录数少时,这种影响就变得更加明显。第73页,共92页,2024年2月25日,星期天泛化误差估计过分拟合的主要原因一直是个争辩的话题,但大家还是普遍同意模型的复杂度对模型的过分拟合有影响。如何确定正确的模型复杂度?理想的复杂度是能产生最低泛化误差的模型的复杂度。估计泛化误差的方法使用再代入估计。用训练误差提供对泛化误差的乐观估计结合模型复杂度估计统计上界使用确定集第74页,共92页,2024年2月25日,星期天第75页,共92页,2024年2月25日,星期天结合模型复杂度奥卡姆剃刀(OccamsRazor):给定两个具有相同泛化误差的模型,较简单的模型比复杂的模型更可取因为复杂模型中的附加成分很大程度上是偶然的拟合。因此,分类模型评估应把模型复杂度考虑进去方法:悲观误差估计、最小描述长度原则(MDL)第76页,共92页,2024年2月25日,星期天悲观误差评估悲观误差估计公式:Q(ti)为每个结点ti的罚分,e(T)为训练样本集的错分样本数,Nt为训练样本总数,k为叶结点数。第77页,共92页,2024年2月25日,星期天第78页,共92页,2024年2月25日,星期天例子1:如果罚分等于0.5,训练样本集中样本数为24个,我们构建了7个叶结点的决策树,训练样本集的错分样本数为4根据公式我们得e’(T)=(4+7*0.5)/24=0.3125例子2:如果罚分等于0.5,训练样本集中样本数为24个,我们构建了4个叶结点的决策树,训练样本集的错分样本数为6根据公式我们得e’(T)=(6+4*0.5)/24=0.3333当罚分等于1时,例1,2为0.458,0.4170.5的罚分项表示只要至少能够改进一个训练记录的分类,结点就应当扩充,因为扩展一个结点等价于总误差增

文档评论(0)

xiaolan118 + 关注
实名认证
内容提供者

你好,我好,大家好!

版权声明书
用户编号:7140162041000002

1亿VIP精品文档

相关文档