分类和回归树(CART).ppt

  1. 1、本文档共28页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
分类和回归树(CART)

分类和回归树(CART) 本节内容提要 CART算法 关于混杂度 --基尼指数 --二分指数 剪枝 CART对缺失值的处理 CART算法 分类和回归树(Classification and Regression Trees,CART) 有时被写作 CRT Breiman, L., J. H. Friedman, R. A. Oshen, and C. J. Stone, 1984. Classification and regression trees. Belmont, CA: Wadsworth. CART 算法 – 概览 二叉树算法 把数据递进划分为两个子集,每一个子集的记录会更纯 这一算法把误分类代价、先验概率、成本-复杂性剪枝 CART算法 1. 基本思想是在每一个节点选择一个划分,使得其每一个子集(子节点)的数据比父节点的数据更“纯”一些。CART 用一个混杂度测度i(t)来测量一个划分的节点数据的混杂度。 CART算法 2. 如果在节点t的一个划分 s 把pL比率的数据送到左子节点tL,把pR比率的数据送到右子节点tR,在节点t的划分 s 降低的混杂度被定义为: CART算法 3. CART 树的生长始于节点 (即, 全部训练数据) t=1, 在所有可能的划分中选择一个划分s*,该划分导致混杂度的最大降低。 s*把节点t=1 划分为t=2和 t=3 两个子节点。 CART算法 4. 以上的划分搜索过程为每一个子节点重复使用。 5. 当所有的终止标准被满足后生长过程停止。 混杂度的几个测度 目标变量是类别变量(名义) – 基尼指数( Gini Index) – 二分指数 (Twoing Index) 目标变量是类别变量(有序) – 有序二分指数(Ordered Twoing) 目标变量是连续变量 – 最小平方偏差(Least-Squared Deviation) 混杂度:基尼指数 如果一个数据集合T的观测记录里包括n个类别,基尼指数的定义如下: 其中 是节点t的类别j的相对比例 混杂度:基尼指数 如果一个数据集合T被划分为两个子集合T1和T2,对应的记录数量分别是N1和N2 ,划分(split)的基尼指数被定义为: 实际上,这是两个子集的基尼指数的加权平均值 混杂度:基尼指数 基尼指数的最大值是1-1/k,在此k是类别的数量。当观测记录在k个类别上平均分布时基尼指数就会最大 基尼指数的最小值的0,这是当所有的观测记录都属于某一个类别时会发生的情况 混杂度:基尼指数 一个分类成功的输入变量会把观测记录中的某一个类别在节点中占多数 输入变量在这方面越成功,从根节点到子节点的基尼指数的变化量就越大 基尼指数的变化量 对于划分s,在节点t,基尼指数的变化量可以按以下公式计算: 能实现最大变化量的划分s(即在某输入变量某个值上把节点里观测记录划分到两个子节点)将被选用 关于混杂度示例 后面的3个片子由Dr. Hyunjoong Kim, Dept of Statistics, University of Tennessee制作 混杂度测量:基尼指数 一个划分 数据 混杂度 划分的优度 基尼指数的变化量: 另一个 划分 数据 混杂度 是更好 的划分 基尼指数的广义公式      其中   C(i|j)=把类别j的记录分类到类别i的错误分类代价 π(j)=类别j的先验值 基尼指数划分的特点 ? 基尼指数关注的目标变量里面最大的类,它试图找到一个划分把它和其它类别区分开来。 ? 完美的系列划分将会得到k个纯粹的子节点,每一个节点对应目标变量的一个类别。 ? 如果误分类代价因素被加入,基尼指数试图把代价最大的类别区分开来。 二分指数划分的特点 ?二分指数首先把目标变量的几个类别划分为2个超类别(或群),每个群加起来接近数据的一半。 ?二分指数然后搜寻把这两个超级群分成子节点的划分。 二分指数的划分方法 对于在节点t的划分s,二分指数的改进量为: 产生两个子节点间最大差异的划分s被选择。 基尼指数对二分指数 ? 当目标变量的类别数很小时,2 to 4,使用基尼指数。 ?当目标变量的类别数较大时,4以上,使用二分指数。 ? 注意当使用二分指标时,误分类代价因素不能使用。 CART 终止条件 ? 一个节点中的所有记录其预测变量值相同 ? 树的深度达到了预先指定的最大值 ? 节点的记录量

文档评论(0)

huayagonga + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档