机器学习与知识发现实验—酒分类.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
机器学习与知识发现实验—酒分类

Using chemical analysis determine the origin of wines 赵启杰 S摘要 采用较简单的决策树归纳算法根据红酒的成分对其进行分类,划分度量采用的是Gini指标,所有数据都看做是连续属性,进行二元划分,最后得到的是一棵二叉决策树。最后采用二折交叉验证的方式,进行评估,得到的分类准确度在85%左右。 为了简单,没有考虑噪声的干扰,没有考虑模型的过分拟合问题,没有考虑泛化误差。 相关工作 算法的实现参考《数据挖掘导论》算法4.1的决策树归纳算法的框架。 TreeGrowth(E,F) if Stopping_cond(E,F)=true then leaf=creatNode() leaf.label=Classify(E) return leaf else root=creatNode() root.test_cond=find_best_split(E, F) 令V={v|v是root.test_cond的一个可能的输出} for 每个v in V do Ev ={e|root.test_cond(e)=v 并且e in E} child=TreeGrowth(Ev, F) 将child 作为root的派生节点添加到树中,并将边(root--child)标记为v end for end if ruturn root 其中E是训练记录集,F是属性集。 涉及到的主要类: Tuple:数据集的一条记录,这里把记录的所有属性都当成浮点型数据处理。 TupleTable:整个数据集。其中iClassNum代表总共的类数,iTableLen代表记录数,iTupleSize代表记录的属性数,rgStrClasses保存所有的类,rgStrAttribute保存所有的属性,rgTuples保存所有的记录。 DecisionNode:决策树中的一个节点。 TestCond:决策树非叶子节点中保存的测试条件。 涉及到的主要方法: TupleTable::InitTableFromFile 从数据文件获取数据,初始化数据集。数据文件格式需要做适当修改。 TupleTable::TupleIndexs 从数据集导出一个数据集的索引,即一个由Tuple指针组成的数组,该数组中的每一个元素指向TupleTable中的一个Tuple。可以通过比较Tuple的值对索引中的指针进行排序。 Stopping_cond 通过检查是否所有的记录都属于同一个类,或者都具有相同的属性值,决定是否终止决策树的增长,或者检查记录数是否小于某一个最小阈值(_BOUNDARY_RECORD_)。通过调整阈值可以在一定范围内改变分类器的准确率。 CreateNode 为决策树建立新节点,决策树的节点或者是一个测试条件,即一个testcond对象,或者是一个类标号。 Find_best_split 确定应当选择哪个属性作为划分训练记录的测试条件。使用的不纯性度量是Gini指标。首先对索引按第j个属性进行排序,如果索引中第i个记录和第i+1个记录不是同一个类,则将第i个记录和第i+1个记录的属性j的中间值作为划分点,计算Gini指标。循环计算所有可能的Gini指标,找出其中的最小值,保存属性名和属性值,作为当前最优测试条件。 GetGini 获取某个训练数据子集的Gini指标。 其中p(i|t)表示节点t中属于类i的记录所占比例。 Classify 为节点确定类标号,对于节点t,统计分配到该节点的所有记录中类i的记录数0iiClassNum,则节点的类标号为max{i}。 Sort_record 对记录子集的索引按照某个属性从小到大进行排序,为了简单,使用了冒泡。 TreeGrowth 递归创建决策树。 创建决策时之前需要对作为输入的数据集文件做适当修改: 属性个数n 属性名1 . . . 属性名n 类个数m 类名1 . . .类名m 记录数k 类名,属性1,...,属性n . . . 类名,属性1,...,属性n 由于分类器的性能评估并不是实验的主要内容,因此这里只是简单的做了一下二折交叉验证,将数据集随机分成两个子集,其中一个作为训练集,另一个作为检验集,然后互换集合再做一次,最后得到的准确率在85%左右。 优劣分析: 1〉决策树归纳是一种构建分类模型的非参数方法。换言之,它不要求任何先验假设,不假定类和其他属性服从一定的概率分布(如Logistic回归); 2〉找到最优决策树是NP完全问题,许多决策树算法都采取启发式方法指导对假设空间的搜索,如采用贪心的、自顶向下的递归划分策略建立决策树; 3〉不需要昂贵的计算代价,即使训练集非常大,也可以快速建立模型。此外,决策树一旦建立,未知样本分类也非常快,最坏情况下的时

文档评论(0)

xcs88858 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:8130065136000003

1亿VIP精品文档

相关文档