- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
* * * * * * * * 决策树 决策树 决策树(Decision Tree)是一种基本的分类与回归方法,决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。 可以认为是if-then规则的集合。 可以认为是定义在特征空间与类空间上的条件概率分布。 决策树模型:if-then规则 内部节点:特征和属性 叶节点:类 树:由节点和有向边组成 路径互斥且完备 可以认为是if-then规则的集合。由决策树的根结点到叶结点的每一条路径构建一条规则;路径上内部结点的特征对应着规则的条件,而叶结点的类对应着规则的结论。 决策树:条件概率分布 决策树还表示给定特征条件下类的条件概率分布 此处条件概率分布:定义在特征空间的一个划分(partition)上,将特征空间划分为互不相交的单元(cell)或区域(region),并在每个单元定义一个类的概率分布就构成了一个条件概率分布。 决策树:条件概率分布 学习目的 从训练数据集中归纳出一组分类规则。可能有多个,可能没有。需要的是一个与训练数据矛盾较小的决策树,同时具有很好的泛化能力。 从训练数据集估计条件概率模型。基于特征空间划分的类的条件概率模型有无穷多个。我们选择的条件概率模型应该不仅对训练数据有很好的拟合,而且对未知数据有很好的预测。 学习步骤 特征的选择 决策树的生成:递归地选择最优特征,并根据该特征对训练数据进行分割,使得对各个子数据集有一个最好的分类的过程。 剪枝:利用损失函数最小原则进行剪枝=用正则化的极大似然估计进行模型选择 学习步骤一:特征的选择 如果特征数量很多,在决策树学习开始时对特征进行选择,只留下对训练数据有足够分类能力的特征 选择的原则:信息增益或者信息增益比 设有随机变量(X,Y),其联合概率分布为: 熵:表示随机变量不确定性的度量 条件熵:H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性,定义为X给定条件下Y的条件概率分布的嫡对X的数学期望 学习步骤一:特征的选择 当嫡和条件嫡中的概率由数据估计(特别是极大似然估计)得到时,所对应的嫡与条件嫡分别称为经验熵和经验条件嫡 极大似然估计,只是一种概率论在统计学的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次试验,观察其结果,利用结果推出参数的大概值。极大似然估计是建立在这样的思想上:已知某个参数能使这个样本出现的概率最大,我们当然不会再去选择其他小概率的样本,所以干脆就把这个参数作为估计的真实值。 学习步骤一:特征的选择 信息增益: g(D,A):特征A对训练数据集D的信息增益 H(D):集合D的经验嫡 H(D|A):特征A给定条件下D的经验条件嫡 改进:信息增益值的大小是相对于训练数据集而言的,并没有绝对意义。在分类问题困难时,也就是说在训练数据集的经验嫡大的时候,信息增益值会偏大,反之,信息增益值会偏小。 信息增益比: 学习步骤二:决策树的生成 ID3算法:基于信息增益选择特征 C4.5算法:基于信息增益比选择特征 (C4.5并不一个算法,而是一组算法—C4.5,非剪枝C4.5和C4.5规则) ID3算法例子: 1.特征的选择,计算信息增益,并选择结果最大时所对应的特征 ID3算法例子: 2.树的生成 学习步骤三:剪枝 决策树的生成算法容易构建过于复杂的决策树,可能只是对已知数据很好分类,对未知数据分类效果不清楚,产生过拟合 在决策树学习中将已生成的树进行简化的过程称为剪枝。具体地,剪枝从下而上,从已生成的树上裁掉一些子树或叶结点,并将其根结点或父结点作为新的叶结点,从而简化分类树模型. 此处介绍一种简单的算法实现:极小化决策树整体的损失函数(loss fimction)或代价函数( cost function)。 损失函数(loss fimction):对于单个训练样本的误差 代价函数( cost function):对于整个训练集,所有样本误差总和的平均 * * * * * * * * * * * * * * * * * * * * * * * * * * * *
您可能关注的文档
最近下载
- 江苏2026届高三语文复习:写作课时作业.doc VIP
- 第3课《雕塑着色变彩身》-2025-2026学年岭南美版(2024)美术新教材八年级上册.pptx VIP
- 肾上腺囊肿的护理业务学习.pptx VIP
- 冀教版七年级上册数学精品教学课件 第五章 一元一次方程 项目学习——主题活动(一) 做个小小会计师.ppt VIP
- 临时用电及防爆-授课版.pdf VIP
- CH3.5.5.11自研软件网络安全研究报告.doc VIP
- 自动扶梯调试手册YSTS-0001-C.docx VIP
- 2022年历史学研究发展报告.docx VIP
- T_CITS 233-2025 液相色谱-质谱联用用于脂溶性维生素检测通用技术要求.pdf VIP
- 中建建筑给排水工程施工方案.pdf VIP
文档评论(0)