hive性能优化模板.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
优化时,把 hive sql 当做 map reduce 程序来读,会有意想不到的惊喜。 理解 hadoop 的核心能力,是 hive 优化的根本。这是这一年来,项目组所有成员宝贵的经 验总结。 长期观察 hadoop 处理数据的过程,有几个显著的特征 : 1.不怕数据多,就怕数据倾斜。 2 .对 jobs 数比较多的作业运行效率相对比较低,比如即使有几百行的表,如果多次关联多 次汇总,产生十几个 jobs ,没半小时是跑不完的。 map reduce 作业初始化的时间是比较长 的。 3.对 sum ,count 来说,不存在数据倾斜问题。 4. 对 count(distinct ), 效率较低, 数据量一多, 准出问题, 如果是多 count(distinct ) 效率更低。 优化可以从几个方面着手: 1. 好的模型设计事半功倍。 2. 解决数据倾斜问题。 3. 减少 job 数。 4. 设置合理的 map reduce 的 task 数,能有效提升性能。 (比如, 10w+ 级别的计算,用 160 个 reduce ,那是相当的浪费, 1 个足够 )。 5. 自己动手写 sql 解决数据倾斜问题是个不错的选择。 set hive.groupby.skewindata=true; 这是通用的算法优化,但算法优化总是漠视业务,习惯性提供通用的解决方法。 Etl 开发人 员更了解业务,更了解数据,所以通过业务逻辑解决倾斜的方法往往更精确,更有效。 6. 对 count(distinct) 采取漠视的方法,尤其数据大的时候很容易产生倾斜问题,不抱侥幸心 理。自己动手,丰衣足食。 7. 对小文件进行合并,是行至有效的提高调度效率的方法,假如我们的作业设置合理的文 件数,对云梯的整体调度效率也会产生积极的影响。 8. 优化时把握整体,单个作业最优不如整体最优。 迁移和优化过程中的案例: 问题 1 :如日志中,常会有信息丢失的问题,比如全网日志中的 user_id ,如果取其中的 user_id 和 bmw_users 关联,就会碰到数据倾斜的问题。 方法:解决数据倾斜问题 解决方法 1. User_id 为空的不参与关联,例如: Select * From log a Join bmw_users b On a.user_id is not null And a.user_id = b.user_id Union all Select * from log a where a.user_id is null. 解决方法 2 : Select * from log a left outer join bmw_users b on case when a.user_id is null then concat( ‘dp_hived() ) else a.user_id end =’ ,ran b.user_id; 总结: 2 比 1 效率更好,不但 io 少了,而且作业数也少了。 1 方法 log 读取两次, jobs 是 2 。 2 方法 job 数是 1 。这个优化适合无效 id( 比如 -99, ’’ ,null等 )产生的倾斜问题。 把空值的 key 变成一个字符串加上随机数,就能把倾斜的数据分到不同的 reduce 上 , 解决数据倾斜问题。 因为空值不参与关联,即使分到不同的 reduce 上,也不影响最终的结果。附上 hadoop 通 用关联的实现方法(关联通过二次排序实现的,关联的列为 parition key, 关联的列 c1 和表 的 tag 组成排序的 group key, 根据 parition key 分配 reduce 。同一 reduce 内根据 group key 排序)。 问题

文档评论(0)

yanmei113 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档