Matlab决策树.docx

  1. 1、本文档共3页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Matlab决策树

Matlab决策树matlab版本: matlab r2010bmatlab决策树有两种:回归树Regrection Trees和分类树Classification Trees涉及两个最基本的函数,建立决策树classregtree,进行预测eval。以前的版本会用treefit建立决策树,用treedisp显示决策树,建议使用新的。我们使用classregtree建立一个决策树模型t,然后其他操作可以使用t.function实现,非常方便。详细信息在Browser中搜索classification tree和regression tree。相关函数函数名作用catsplitchildren查看子节点个数classcount查看节点各类实例数classprob查看节点各类概率classregtree构建决策树cutcatrgories剪枝范畴cutpoint分枝点的阀值cuttype分枝的类型cutvar分枝点的属性名eval进行预测isbranch是否是分枝节点nodeerrnodeprob节点的概率nodesize节点的尺寸,即各类实例之和numnodes节点数量parent父节点prune剪枝risk节点风险test错误率type树类别varimportance估算输入特征的重要性view画出决策树下面介绍一些关键函数。classregtree——构造决策树语法t = classregtree(X,y)t = classregtree(X,y,Name,value)X是样本特征值,y是样本类别,Name\value是成对出现的可选项,具体作用参见下表。t是得到的决策树模型。如果y是确定的数值,得到的是回归树。如果y是分类变量、字符数组或者字符串数组,得到的就是分类树。Namevalue说明回归树与分类树皆可categoricalmethod‘classification’,’regression’指定树的类型,对于分类树,y默认是文本或分类变量,对于回归树,y默认是数值。names{‘name1’,’name2’,…}元胞数组,定义每个特征的特证名,这样可以在树图中显示出来prune‘on’(默认),’off’是否剪枝minparentk(默认10)至少有k个样本值才进行分枝,默认是10个样本minleafk(默认1)叶节点至少要有k个。如果和minparent合用以确保产生更多的叶节点,方法是minparent=max(minparent,2*minleaf)mergeleaves‘on’(默认),’off’将来自同一个节点的叶节点合并,风险值总和不小于不合并的情况nvartosampe分枝时随机选择的样本数量,默认是所有stream随机数流。默认是matlab的随机数流surrogate‘on’,’off’(默认)设置为on,会在要分枝的节点处寻找代理分割,将会占用更多内存,耗用更多时间weight权重向量观测值的权重向量,默认是1,每个样本给个权值仅限回归树qetoler定义每个节点的平方误差。如果某节点的平方误差小于qetoler,就停止分枝。默认是1e-6仅限分类树cost比如C代价矩阵C,其值c(i,j)是把i错分为j的代价。splitcriterion‘gdi’,’twoing’,’deviance’选择分枝准则。gdi(默认)基尼多样性指数,twoing二分准则,deviance最大偏差减小priorprob每个类别的先验概率。view()——画出决策树语法view(t)view(t,param1,val1,param2,val2,...)也可以这么用t.viewparamval说明‘names’{‘name1’,’name2’,…}指定特征名,一般和treefit合用,如果在classregtree中没有指定特证名,在画图时可用这个函数指定prunelevel显示最初的剪枝层次prune——决策树剪枝语法t2 = prune(t1,level,level)t2 = prune(t1,nodes,nodes)t2 = prune(t1)说明t2 = prune(t1,level,level),剪掉t1中的后level层,0不剪枝,1表示最底层,2表示最深的两层,以此类推。t2 = prune(t1,nodes,nodes)。剪掉第nodes个分枝节点后的所有枝,如果nodes不是分枝节点就不会剪枝。t2 = prune(t1)。剪枝控制选项,如果classregtree里的没有剪枝,可以在这里实现。eval——用决策树进行预测语法yfit = eval(t,X)yfit = eval(t,X,s)[yfit,nodes] = eval(...)[yfit,nodes,cnums] = eval(...)[

文档评论(0)

hhuiws1482 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:5024214302000003

1亿VIP精品文档

相关文档