- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
机器学习与知识发现实验—酒分类
Using chemical analysis determine the origin of wines
赵启杰 S摘要
采用较简单的决策树归纳算法根据红酒的成分对其进行分类,划分度量采用的是Gini指标,所有数据都看做是连续属性,进行二元划分,最后得到的是一棵二叉决策树。最后采用二折交叉验证的方式,进行评估,得到的分类准确度在85%左右。
为了简单,没有考虑噪声的干扰,没有考虑模型的过分拟合问题,没有考虑泛化误差。
相关工作
算法的实现参考《数据挖掘导论》算法4.1的决策树归纳算法的框架。
TreeGrowth(E,F)
if Stopping_cond(E,F)=true then
leaf=creatNode()
leaf.label=Classify(E)
return leaf
else
root=creatNode()
root.test_cond=find_best_split(E, F)
令V={v|v是root.test_cond的一个可能的输出}
for 每个v in V do
Ev ={e|root.test_cond(e)=v 并且e in E}
child=TreeGrowth(Ev, F)
将child 作为root的派生节点添加到树中,并将边(root--child)标记为v
end for
end if
ruturn root
其中E是训练记录集,F是属性集。
涉及到的主要类:
Tuple:数据集的一条记录,这里把记录的所有属性都当成浮点型数据处理。
TupleTable:整个数据集。其中iClassNum代表总共的类数,iTableLen代表记录数,iTupleSize代表记录的属性数,rgStrClasses保存所有的类,rgStrAttribute保存所有的属性,rgTuples保存所有的记录。
DecisionNode:决策树中的一个节点。
TestCond:决策树非叶子节点中保存的测试条件。
涉及到的主要方法:
TupleTable::InitTableFromFile
从数据文件获取数据,初始化数据集。数据文件格式需要做适当修改。
TupleTable::TupleIndexs
从数据集导出一个数据集的索引,即一个由Tuple指针组成的数组,该数组中的每一个元素指向TupleTable中的一个Tuple。可以通过比较Tuple的值对索引中的指针进行排序。
Stopping_cond
通过检查是否所有的记录都属于同一个类,或者都具有相同的属性值,决定是否终止决策树的增长,或者检查记录数是否小于某一个最小阈值(_BOUNDARY_RECORD_)。通过调整阈值可以在一定范围内改变分类器的准确率。
CreateNode
为决策树建立新节点,决策树的节点或者是一个测试条件,即一个testcond对象,或者是一个类标号。
Find_best_split
确定应当选择哪个属性作为划分训练记录的测试条件。使用的不纯性度量是Gini指标。首先对索引按第j个属性进行排序,如果索引中第i个记录和第i+1个记录不是同一个类,则将第i个记录和第i+1个记录的属性j的中间值作为划分点,计算Gini指标。循环计算所有可能的Gini指标,找出其中的最小值,保存属性名和属性值,作为当前最优测试条件。
GetGini
获取某个训练数据子集的Gini指标。
其中p(i|t)表示节点t中属于类i的记录所占比例。
Classify
为节点确定类标号,对于节点t,统计分配到该节点的所有记录中类i的记录数0iiClassNum,则节点的类标号为max{i}。
Sort_record
对记录子集的索引按照某个属性从小到大进行排序,为了简单,使用了冒泡。
TreeGrowth
递归创建决策树。
创建决策时之前需要对作为输入的数据集文件做适当修改:
属性个数n
属性名1
.
.
.
属性名n
类个数m
类名1
.
.
.类名m
记录数k
类名,属性1,...,属性n
.
.
.
类名,属性1,...,属性n
由于分类器的性能评估并不是实验的主要内容,因此这里只是简单的做了一下二折交叉验证,将数据集随机分成两个子集,其中一个作为训练集,另一个作为检验集,然后互换集合再做一次,最后得到的准确率在85%左右。
优劣分析:
1〉决策树归纳是一种构建分类模型的非参数方法。换言之,它不要求任何先验假设,不假定类和其他属性服从一定的概率分布(如Logistic回归);
2〉找到最优决策树是NP完全问题,许多决策树算法都采取启发式方法指导对假设空间的搜索,如采用贪心的、自顶向下的递归划分策略建立决策树;
3〉不需要昂贵的计算代价,即使训练集非常大,也可以快速建立模型。此外,决策树一旦建立,未知样本分类也非常快,最坏情况下的时
您可能关注的文档
最近下载
- 2025年电源管理芯片产业分析报告.pdf VIP
- 预防呼吸机相关肺炎的集束化管理策略课件.pptx VIP
- 【高三上】江淮十校2026届高三第一次联考语文试题含答案.docx
- 北京市海淀区2024-2025学年七年级上学期期末英语试题(含答案与解析).pdf VIP
- 2023年IATF16949汽车质量管理体系程序文件汇编(内含39个程序以及质量手册).docx VIP
- 关务风险管理.pptx VIP
- (2025秋新版)人教版八年级英语上册《Unit 4 Amazing Plants and Animals》PPT课件.pptx
- 2025年最新征信报告可编辑模版1.pdf
- {工作手册}物资编码手册.pdf VIP
- 食品厂产品留样制.doc VIP
文档评论(0)