选择性集成学习策略-datamininglab@xiamen.pptVIP

选择性集成学习策略-datamininglab@xiamen.ppt

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
选择性集成学习策略-datamininglab@xiamen

选择性集成学习策略 论文作者:邱诚 目前选择集成学习及其不足 基于聚类的方法 基于排序的方法 基于选择的方法 基于优化的方法 本文的改进方法 基于K-Means的预筛选 基于循环集成思想的静态选择策略 基于K-Means的预筛选 将两基分类器的非错分交集概率作为两分类器之间距离,进而根据K-Means将多个分类器聚类。 采用如下的距离公式: 基于循环集成思想的静态选择策略 改进的动态选择与循环集成框架 分类器数量阀值 记录局部最优分类器组合 相互一致性度量K作为差异性度量方式 实验结果与分析 本文二分类实验是在怀卡托智能分析环境(WEKA)中完成的。调用了WEKA中的20种不同类型的分类器,采用简单多数投票法(majority voting)将多个基分类器进行集成。 实验中采用十次五折交叉验证的方法对分类效果进行验证,取十次交叉验证的平均时间和平均精度进行比较。 更多关于实验结果的资料,请移步软件主页,或查看作者的论文。 LibD3C流程图 LibD3C的使用 从Eclipse中导入jar包进行调用 从weka图形界面中直接选择使用 关于软件的更多信息 LibD3C软件主页: /main/~qc/libDSCCBC.htm 谢谢! 论文作者:邱诚 电子邮箱:pisqiucheng@ 联系电话:159 5927 1913 1.让所有的基分类器参与选择集成会耗费一些不必要的时间。本文提出先将所有的基分类器用聚类的方法进行预筛选,剔除冗余的基分类器,形成新的候选分类器集合,再进行下一步的集成学习。 2.采用改进的动态选择与循环集成框架。 * 上述定义中,D(L)表示L中所含的样本的个数,分类器Cs和Ct的错分交集越多,说明它们之间的距离越小,反之,则说明距离越大。 修剪策略的过程: 首先对分类器集合T中每个分类器C对样本集进行单独训练,收集全部的预测结果,形成向量空间O,向量空间的每个元素Oij表示分类器Ci对于样本j的 预测结果,将向量空间O作为K-均值聚类算法的样本集进行聚类,最后挑选每个聚类中预测效果最好的分类器C,形成新的候选分类器集合S。 * 1.动态选择与循环集成方法将全部的初始分类器排序并逐一循环添加,对于复杂度较高的目标问题,分类器组合规模没有得到限制,而且记录的精度值不是历史最优的,将会耗费更多的时间在循环集成上。本文添加了一些剪枝函数,设置了分类器数量阀值,避免了循环集成耗费大量时间。 本文采用的是静态选择策略,算法得到的是在验证集上精度表现最好的分类器子集。 2.本文选用相互一致性度量K作为差异性度量方式。相互一致性度量K是一种非成对差异性度量方法,在根据差异性度量结果预测系统性能方面比成对的差异性度量方法要好。且其易于理解,实现也更为简单。 * 1.让所有的基分类器参与选择集成会耗费一些不必要的时间。本文提出先将所有的基分类器用聚类的方法进行预筛选,剔除冗余的基分类器,形成新的候选分类器集合,再进行下一步的集成学习。 2.采用改进的动态选择与循环集成框架。 * 上述定义中,D(L)表示L中所含的样本的个数,分类器Cs和Ct的错分交集越多,说明它们之间的距离越小,反之,则说明距离越大。 修剪策略的过程: 首先对分类器集合T中每个分类器C对样本集进行单独训练,收集全部的预测结果,形成向量空间O,向量空间的每个元素Oij表示分类器Ci对于样本j的 预测结果,将向量空间O作为K-均值聚类算法的样本集进行聚类,最后挑选每个聚类中预测效果最好的分类器C,形成新的候选分类器集合S。 * 1.动态选择与循环集成方法将全部的初始分类器排序并逐一循环添加,对于复杂度较高的目标问题,分类器组合规模没有得到限制,而且记录的精度值不是历史最优的,将会耗费更多的时间在循环集成上。本文添加了一些剪枝函数,设置了分类器数量阀值,避免了循环集成耗费大量时间。 本文采用的是静态选择策略,算法得到的是在验证集上精度表现最好的分类器子集。 2.本文选用相互一致性度量K作为差异性度量方式。相互一致性度量K是一种非成对差异性度量方法,在根据差异性度量结果预测系统性能方面比成对的差异性度量方法要好。且其易于理解,实现也更为简单。 *

文档评论(0)

zhaoxiaoj + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档