第3章 节 关联规则挖掘理论和算法(new) 数据挖掘课件.pptVIP

第3章 节 关联规则挖掘理论和算法(new) 数据挖掘课件.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第3章 节 关联规则挖掘理论和算法(new) 数据挖掘课件.ppt

基本概念与解决方法 经典的频繁项目集生成算法分析 Apriori算法的性能瓶颈问题 Apriori的改进算法 对项目集格空间理论的发展 关联规则挖掘中的一些更深入的问题 ;关联规则挖掘是数据挖掘研究的基础;事务数据库 ;支持度、频繁项目集、可信度、强关联规则 ;定义(规则的可信度) 一个定义在I和D上的形如 I1?I2 的关联规则通过满足一定的可信度(Confidence)来给出。所谓规则的可信度是指包含 I1 和I2的事务与包含 I1 的事务之比: Confidence(I1?I2)=|| Support(I1∪I2) / Support(I1) 其中I1 ,I2 ?I ; I1∩I2=? 定义(强关联规则)。D 在 I 上满足最小支持度和最小可信度的关联规则称为强关联规则。 通常所说的关联规则一般指上面定义的强关联规则。;经典的发现频繁项目集算法;Apriori-gen过程;;Apriori算法例子;关联规则的生成问题;算法-递归测试一个频集中的关联规则;Rule-generate算法例子;Apriori作为经典的频繁项目集生成算法,在数据挖掘中具有里程碑的作用。 Apriori算法有两个致命的性能瓶颈: 1.多次扫描事务数据库,需要很大的I/O负载 对每次k循环,侯选集Ck中的每个元素都必须通过扫描数据库一次来验证其是否加入Lk。假如有一个频繁大项目集包含10个项的话,那么就至少需要扫描事务数据库10遍。 2.可能产生庞大的侯选集 由Lk-1产生k-侯选集Ck是指数增长的,例如104个1-频繁项目集就有可能产生接近107个元素的2-侯选集。如此大的侯选集对时间和主存空间都是一种挑战。; 一些算法虽然仍然遵循Apriori 属性,但由于引入了相关技术,在一定程度上改善了Apriori算法适应性和效率。 主要的改进方法有: 基于数据分割(Partition)的方法:基本原理是“在一个划分中的支持度小于最小支持度的k-项集不可能是全局频繁的”。 基于散列(Hash)的方法:基本原理是“在一个hash桶内支持度小于最小支持度的k-项集不可能是全局频繁的”。 基于采样(Sampling)的方法:基本原理是“通过采样技术,评估被采样的子集中,并依次来估计k-项集的全局频度”。 其它方法,如动态删除没有用的事务:“不包含任何Lk的事务对未来的扫描结果不会产生影响,因而可以删除”。;基于数据分割???方法;定理 设数据集D被分割成分块D1, D2, …, Dn,全局最小支持度为minsupport,假设对应的全局最小支持数为minsup_count。如果一个数据分块Di 的局部最小支持数记为minsup_counti (i=1,2,…,n),则局部最小支持数minsup_counti按照如下方法生成: minsup_counti = minsup_count *||Di|| / ||D|| 可以保证所有的局部频繁项目集涵盖全局频繁项目集。 ;基于散列的方法;随着数据库容量的增大,重复访问数据库(外存)将导致性能低下。因此,探索新的理论和算法来减少数据库的扫描次数和侯选集空间占用,已经成为近年来关联规则挖掘研究的热点之一。 两个典型的方法: Close算法 FP-tree算法 ;Close算法对应的原理;CLOSS算法的基本思路:利用频繁闭合i_项目集FCi,生成频繁闭合i+1 _项目集FCi+1(i≥1)。 首先找出候选频繁闭合1_项目集FCC1,通过扫描数据库得到候选闭合项目集,再经修剪得到频繁闭合项目集FC1项目集。用FC1产生候选频繁闭合2_项目集FCC2,再经修剪得到频繁闭合项目集FC2项目集。在用FC2推出FC3 ,如此继续直到某个FCCr 为空时停止。;Close算法的例子;FP-tree算法的基本原理;FP-tree算法的基本原理;FP-tree算法的基本原理;FP-tree算法的基本原理; 用FP-Tree挖掘频繁集的基本思想是分而制之,即使用FP-Tree 递归增长频繁集的方法: 对每个项,生成其条件模式库,然后生成其条件FP-Tree; 对每个新生成的条件FP-Tree,重复此步骤; 直到结果FP-Tree为空,或只含唯一的一个路径,此路径的每个子路径对应的项目集都是频繁集。;从FP-Tree建立条件模式库;用条件模式库建立对应的条件FP-Tree;Item;用条件FP-Tree挖掘频繁项集;多层次关联规则挖掘;多层次关联规则挖掘;不同层次使用不同的最小支持度:每个层次都有自己的最小支持度。较低层次的最小支持度相对较小,而较高层次的最小支持度相对较大。这种方法增加了挖掘的灵活性。但是,也留下了许多相

您可能关注的文档

文档评论(0)

yuzongxu123 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档