Hadoop平台基准性能测试的研究.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Hadoop平台基准性能测试的研究

Hadoop平台基准性能测试的研究   摘要:Hadoop平台是apche下的一个开源大数据平台,具有分布性、虚拟化、高可靠性、高可伸缩性、通用性等特点。Hadoop平台发展至今,集成组件已从1.0发展到2.0。从Hadoop体系结构入手,分析了Hadoop 平台1.0和2.0平台的基准测试性能并进行了对比。研究了testdfsIO、yarn、hive的基准测试,通过对升级后平台的基准测试,分析了2.0的优势,为集成Hadoop平台提供参考。   关键词:大数据;Hadoop;testdfsIO;yarn;hive;性能对比   DOIDOI:10.11907/rjdk.143775   中图分类号:TP306   文献标识码:A 文章编号文章编号2015)001003003   作者简介作者简介:张新玲(1983-),女,浙江杭州人,浪潮电子信息产业股份有限公司系统软件部高级工程师,研究方向为云计算、大数据。   0 引言   随着移动互联网、物联网、社交网络等技术的兴起,全球数据量迅猛增长,大数据(Big Data)时代已经来临。大数据的定义有多种提法,IBM认为大数据具备规模性(Volume)、多样性(Variety)和高速性(Velocity)3个特征:规模性指数据量巨大,量级达到TB级及PB级;多样性指数据类型繁多,包括结构化数据和非结构化数据;高速性指数据创建、处理和分析的速度持续加快。Hadoop是一个开源大数据平台,已成为大数据的代名词。短短几年,Hadoop从一种边缘技术成为事实上的标准,Hadoop 逐渐通过开源的分布式计算框架成为各软件开发团队首选的云计算平台。   Hadoop平台软件系统具有分布性、虚拟化、高可靠性、高可伸缩性、通用性等特点,在军事、教育、政府、金融等各个领域都有应用。在这样的背景下,研究Hadoop平台下的基准测试工作具有重要现实意义,本文研究的是hadoop平台1.0和2.0的基准项性能测试对比。   1 研究内容   Hadoop平台下的基准测试主要包括Hdfs的读写、Yarn的执行情况;Hive的基本功能包括简单查询、表连接查询、插入操作、分组查询和map查询; TestDFSIO基准测试、Yarn基准测试、Hive基准测试比较研究。采用hadoop自带的测试包hadoop-test.jar中的TestDFSIO方法,分别执行3次读写操作。   2 TestDFSIO基准测试比较   2.1 单个1G文件读写测试   测试采用Hadoop自带的测试包hadoop-test.jar中的TestDFSIO方法,分别执行3次读写操作,测试结果对比如表2、表3所示。   2.2 单个200G文件读写测试   测试采用Hadoop自带的测试包hadoop-test.jar中的TestDFSIO方法。   2.3 10个1G文件读写测试   测试采用Hadoop自带的测试包hadoop-test.jar中的TestDFSIO方法。   2.4 10个200G文件读写测试   测试采用Hadoop自带的测试包hadoop-test.jar中的TestDFSIO方法。   3 Yarn基准测试比较   3.1 使用Wordcount统计输入数据中每个单词的出现次数   输入数据使用Hadoop RandomWriter产生的random data, 在yarn上运行RandomWriter,会启动一个MapReduce job, 每个节点生成1G数据共8G。   Wordcount进行数据统计,在Hadoop2.0平台与Hadoop1.0平台上的测试时间分别如表10所示。   3.2 使用Sort对8GB数据进行排序   Sort测试是Hadoop自带的排序测试,输入数据使用Hadoop RandomTextWriter生成8G数据。   3.3 使用Terasort对1TB数据进行排序   TeraSort是由微软的数据库专家Jim Gray创建的标准benchmark,输入数据由Hadoop TeraGen产生,生成1TB数据。   4 Hive基准测试比较   本次hive测试生成两个表:Rankings和Uservisits表,Rankings表大小为1GB共11 999 999条,Uservisits表大小20GB共99 999 995条。Rankings表的表结构为:   hive desc rankings;   OK   pageurl string None   pagerank int None   avgduration int None   Time taken: 0.12 s

文档评论(0)

3471161553 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档