网站大量收购独家精品文档,联系QQ:2885784924

机器学习09__决策树学习.pdf免费

  1. 1、本文档共30页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
决策树学习决策树学习 决策树决策树 • 决策树是实例(表示为特征向量)的分类器。结点测 试特征试特征,,边表示特征的每个值边表示特征的每个值,,叶结点对应分类叶结点对应分类。。 • 可表示任意析取和合取范式可表示任意析取和合取范式,,从而表示任意离散函数从而表示任意离散函数 和离散特征 • 可将实例分到多个分类(≥2) • 可以重写为规则,用析取范式(DNF )形式 red ^ circle - positive red ^ circle - A blueblue - B;B; redred ^ squaresquare - BB green - C; red ^ triangle - C 2001年6月2 日 决策树学习决策树学习 • 特点与优势 • 实例实例用用((属性属性-值值))对表示对表示。。离散值处理简单离散值处理简单,,连续值可连续值可 以划分区间。 • 输出可以是离散的分类输出可以是离散的分类,,也可以是实数也可以是实数 ((回归树回归树)。)。 • 能有效处理大量数据 • 可处理噪声数据可处理噪声数据 ((分类噪声分类噪声,,属性噪声属性噪声)) • 属性值缺失,亦可处理 2001年6月2 日 基本决策树算法基本决策树算法 • 训练数据批处理,自顶向下递归构造决策树 • DTree((examplles, attribibutes)) If 所有样本属于同一分类,返回标号为该分类的叶结点 Else if 属性值为空属性值为空,,返回标号为最普遍分类的叶结点返回标号为最普遍分类的叶结点 Else 选取一个属性,A ,作为根结点 For A的每一个可能的值vi 令令examplesexamples 为具有为具有AA=vv 的样本子集的样本子集 ii ii 从根结点出发增加分支(A=v ) i 如果examplesi为空 则创建标号为最普遍分类的叶结点则创建标号为最普遍分类的叶结点 否则递归创建子树——调用DTree(examples ,attributes-{A}) i 2001年6月2 日 根属性的选取根属性的选取 • 决策树要尽可能小 • 寻找一组数据对应的最小决策树是寻找一组数据对应的最小决策树是NP-hhardd的的 • 简单递归算法是贪婪启发式搜索,无法保证最优 • 子集应尽可能子集应尽可能 ““纯纯””,,从而易于成为叶结点从而易于成为叶结点 • 最常用的启发规则是基于信息增益(Information Gain) 2001年6月2 日 熵熵((Entropy)Entropy) • 一组样本S对于二元分类的熵(混淆度)为: Entropy (S ) −p + log2 (p +) −p − log2 (p −) 其中其中pp 和和pp 为为SS中的正例中的正例、、反例所占比例反例所占比例 ++ - • 若所有样本属于同一分类,则熵为0(定义0log0=0) • 若样本平均分布若样本平均分布((

您可能关注的文档

文档评论(0)

js66g + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档