基于Spark框架的并行聚类算法.PDFVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于Spark框架的并行聚类算法

第27卷摇 第5期 计 算机 技 术 与发 展 Vol.27摇 No.5 2017年5月 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 COMPUTERTECHNOLOGY AND DEVELOPMENT摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 May 摇 2017 基于Spark框架的并行聚类算法 1 2 1 1 1 李淋淋 ,倪建成 ,曹摇 博 ,于苹苹 ,姚彬修 (1.曲阜师范大学信息科学与工程学院,山东 日照 276826; 2.曲阜师范大学软件学院,山东曲阜 273100) 摘摇 要:针对传统 -means算法在处理海量数据时存在距离计算瓶颈及因迭代计算次数增加导致内存不足的问题,提出 K 了一种基于Spark框架的SBTICK-means (Spark Based Triangle Inequality Canopy- -means)并行聚类算法。 为了更好地 K 解决 值选取的盲目性和随机性的问题,该算法利用Canopy进行预处理得到初始聚类中心点和 值;在 -means迭代计 K K K 算过程中进一步利用距离三角不等式定理减少冗余计算、加快聚类速度,结合 Spark框架实现算法的并行化,充分利用 Spark的内存计算优势提高数据的处理速度,缩减算法的整体运行时间。 实验结果表明,SBTICK-means算法在保证准确 率的同时大大提高了聚类效率,与传统的 -means算法、Canopy- -means算法和基于MapReduce框架下的该算法相比, K K 在加速比、扩展比以及运行速率上都有一定的提高,从而更适合应用于海量数据的聚类研究。 关键词: -means;Spark;大数据;Hadoop;MapReduce K 中图分类号:TP301.6摇 摇 摇 摇 摇 摇 文献标识码:A摇 摇 摇 摇 摇 摇 文章编号:1673-629X(2017)05-0097-05 doi:10.3969/j.issn.1673-629X.2017.05.021 Parallel Clustering Algorithm with Spark Framework 1 2 1 1 1 LI Lin-lin ,NI Jian-cheng ,CAO Bo ,YU Ping-ping ,YAO Bin-xiu (1.College of Information Science and Engineering,Qufu Normal University,Rizhao276826,China; 2.College of Software,Qufu Normal University,Qufu273100,China) Abstract:Inviewoftheissuesthatwhenprocessingmassivedata,traditionalK-meansalgorithmhasthebottlenecksofdistancecomputa鄄 tion andcausesmemo

文档评论(0)

shaofang00 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档