- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
用决策树方法对手写数字的识别
决策树的matlab实现(运用在手写数字的0,1识别)
[1]单个决策树的实现。
一、载入实验数据
%载入实验的原始数据
images = loadMNISTImages(train-images.idx3-ubyte);
labels = loadMNISTLabels(train-labels.idx1-ubyte);
images_0=images(:,labels==0);
images_1=images(:,labels==1);
Images_te = loadMNISTImages(t10k-images.idx3-ubyte);
Labels_te = loadMNISTLabels(t10k-labels.idx1-ubyte);
Images_te_0=Images_te(:,Labels_te==0);
Images_te_1=Images_te(:,Labels_te==1);
%对原始数据进行处理
X=[images_0 images_1]; %将0和1的训练样本拼接成新的矩阵。注意此时时是每一行代表一个样本。
Y=[zeros(5923,1) ones(6724,1)]; %生成训练样本相应的类别标签,是一个列向量。每一个元素代表相应 样本所属于的类别。
Images_te_0=Images_te_0; %测试样本的数字0,每一行代表一个样本。
Images_te_1=Images_te_1; % 测试样本的数字1,每一行代表一个样本.
二、构建决策树
t=treefit(X,Y);
% X是训练样本,一定注意是每一行代表一个样本数据。Y是训练样本
% 所对应的类别标签,仍旧是一个列向量。t就是根据训练样本构建的一个决策树。
三、用决策树对测试样本进行分类
result0=treeval(t,Images_te_0);
% 对测试样本手写数字0进行识别。result0为一个列向量,每一元素表示对应样本被识别为的类。
%treeval函数的格式为treeval(t,X),其中,t为构建的决策树,X为测试样本。一定要注意X的每一行表示的是一个样本。
result1=treeval(t,Images_te_1); %对测试样本数字1进行分类。
四、错误率分析
error0=find(result~=0);
error1=find(result~=1); %找出被识别错误的数字0和1的索引。
rate0=size(error0,1)/980;
rate1=size(error1,1)/980; %分别计算错误率。
实验结果为
rate1= 0.007048458149780
rate0= 0.004081632653061
可以看到正确几乎接近100%
五、显示决策树
treedisp(t);或者是view(t);
如下:
六、对决策树进行剪枝
在对决策树进行剪枝之前,我们需要计算交叉验证的最小错误率水平。具体过程为:
我们计算不同k值下的k-fold cv ,找出错误率最小的那个k值。在matlab上的实现是用我自己编写的trcv函数做的。如下:
k=trcv(10,X,Y);
找到了k,我们就按照这个k值来对我们建立的决策树进行剪枝。用函数prune实现。如下:
tree_new=prune(t,level,k);
实现结果为:
k=4;
view(tree_new)的结果如下
我们发现经过剪枝,决策树变得简单许多。下面我们可以用这棵新树对测试样本进行测试。在此就不再做了。
[2]用随机森林来实现
我自己编写了一个随机遇森林函数rf,用它可以直接实现。实现过程如下:
labels0_te=zeros(980,1);
%载入测试样本的标签
[w,err]=rf(X,Y,Images_te_0,labels0_te,5);
最后的错误率为err=0.001.比之前0.004提高很多。我们find(w~=0); 发现只有一个样本被识别错误而已。
您可能关注的文档
最近下载
- 肠套叠护理PPT课件讲解PPT课件.pptx VIP
- (沪教版2024)二年级数学上册新教材解读课件.pptx
- 小儿肛管排气.pptx VIP
- 新解读《GB_T 5271.9 - 2001信息技术 词汇 第9部分_数据通信》最新解读.docx VIP
- 新解读《GB_T 18492-2001信息技术 系统及软件完整性级别》最新解读.docx VIP
- PPT灌肠操作及并发症处理.pptx VIP
- 基于ABAQUS的橡胶材料粘弹性特性仿真.docx VIP
- 《带式输送机概述》PPT课件.pptx
- 1 “钓鱼”游戏(课件)一年级上册科学人教鄂教版2025.ppt
- 山东理工大学2021-2022学年《Python程序设计》期末考试试卷(A卷)及标准答案.docx
文档评论(0)