面向Spark图书借阅数据关联模型研究.PDFVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
安徽农业大学学报, 2018, 45(4): 768-771 Journal of Anhui Agricultural University [DOI] 10.13610/ki.1672-352x002 网络出版时间:2018/8/27 17:05:10 [URL] /kcms/detail/34.1162.s1656.003.html 面向 Spark 的图书借阅数据关联模型的研究 1 2 3 高琪娟 ,刘 锴 ,陈 佳 (1. 安徽农业大学信息与计算机学院,合肥 230036 ;2. 安徽农业大学现代教育信息中心,合肥 230036 ; 3. 中国电信芜湖分公司高端聚类服务中心,芜湖 241003) 摘 要:为了方便读者能在海量的图书资源中快速有效的找到需要的书籍,利用MapReduce 框架分块处理,结 合关联分析 Apriori 算法,将数据挖掘技术应用到图书管理系统中。但需要多次扫描数据库和产生大量候选集,对 Hadoop 平台处理速度带来了巨大挑战,因此,针对传统的Apriori 算法,提出基于内存计算、弹性分布式数据集处理 的Spark 平台为读者推荐书籍,指引读者的借阅行为。 关键词:Apriori 关联规则;Spark 平台;图书借阅行为模式;频繁项集 中图分类号:TP391.3 文献标识码:A 文章编号:1672352X (2018)04076804 Research of associative model for libraries’ book lending data based on the spark 1 2 3 GAO Qijuan , LIU Kai , CHEN Jia (1. School of Information and Computer Science, Anhui Agricultural University, Hefei 230036; 2. Modern Educational Technology Center of Anhui Agricultural University, Hefei 230036; 3. High-standard clustering Service Center Department of China Telecom Co., Ltd., Wuhu 241003) Abstract: In order to search the required books from a tremendous amount of resources immediately for au- thors, we tried to use the method of MapReduce for dealing the process of block data, combining the algorithm of Apriori, and applying data mining technology to the library management system. But the method referring to above need scan database many times and emerge a large number of candidate set, which will produce tremendous chal- lenge to the speed with Hadoop processing method. Thus, compared to the tradition method of Apriori, there is a new method based on the memory and RDD to compute in Spark platfor

文档评论(0)

***** + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档