网站大量收购独家精品文档,联系QQ:2885784924

尚学堂hadop大数据培训BulkLoad 实现数据快速入库尚学堂hadoop大数据培训BulkLoad 实现数据快速入库.doc

尚学堂hadop大数据培训BulkLoad 实现数据快速入库尚学堂hadoop大数据培训BulkLoad 实现数据快速入库.doc

  1. 1、本文档共18页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
尚学堂hadop大数据培训BulkLoad 实现数据快速入库尚学堂hadoop大数据培训BulkLoad 实现数据快速入库

北京尚学堂提供 1、为何要?BulkLoad 导入?传统的?HTableOutputFormat 写 HBase 有什么问题? 我们先看下 HBase 的写流程: 通常 MapReduce 在写HBase时使用的是 TableOutputFormat 方式,在reduce中直接生成put对象写入HBase,该方式在大数据量写入时效率低下(HBase会block写入,频繁进行flush,split,compact等大量IO操作),并对HBase节点的稳定性造成一定的影响(GC时间过长,响应变慢,导致节点超时退出,并引起一系列连锁反应),而HBase支持 bulk load 的入库方式,它是利用hbase的数据信息按照特定格式存储在hdfs内这一原理,直接在HDFS中生成持久化的HFile数据格式文件,然后上传至合适位置,即完成巨量数据快速入库的办法。配合mapreduce完成,高效便捷,而且不占用region资源,增添负载,在大数据量写入时能极大的提高写入效率,并降低对HBase节点的写入压力。 通过使用先生成HFile,然后再BulkLoad到Hbase的方式来替代之前直接调用HTableOutputFormat的方法有如下的好处: (1)消除了对HBase集群的插入压力 (2)提高了Job的运行速度,降低了Job的执行时间 目前此种方式仅仅适用于只有一个列族的情况,在新版 HBase 中,单列族的限制会消除。 2、bulkload?流程与实践 bulkload 方式需要两个Job配合完成:? (1)第一个Job还是运行原来业务处理逻辑,处理的结果不直接调用HTableOutputFormat写入到HBase,而是先写入到HDFS上的一个中间目录下(如 middata)? (2)第二个Job以第一个Job的输出(middata)做为输入,然后将其格式化HBase的底层存储文件HFile? (3)调用BulkLoad将第二个Job生成的HFile导入到对应的HBase表中 下面给出相应的范例代码: 001 import?java.io.IOException; 002 ? 003 import?org.apache.hadoop.conf.Configuration; 004 import?org.apache.hadoop.fs.Path; 005 import?org.apache.hadoop.hbase.HBaseConfiguration; 006 import?org.apache.hadoop.hbase.KeyValue; 007 import?org.apache.hadoop.hbase.client.HTable; 008 import?org.apache.hadoop.hbase.client.Put; 009 import?org.apache.hadoop.hbase.io.ImmutableBytesWritable; 010 import?org.apache.hadoop.hbase.mapreduce.HFileOutputFormat; 011 import?org.apache.hadoop.hbase.mapreduce.KeyValueSortReducer; 012 import?org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles; 013 import?org.apache.hadoop.hbase.util.Bytes; 014 import?org.apache.hadoop.io.IntWritable; 015 import?org.apache.hadoop.io.LongWritable; 016 import?org.apache.hadoop.io.Text; 017 import?org.apache.hadoop.mapreduce.Job; 018 import?org.apache.hadoop.mapreduce.Mapper; 019 import?org.apache.hadoop.mapreduce.Reducer; 020 import?org.apache.hadoop.mapreduce.lib.input.FileInputFormat; 021 import?org.apache.hadoop.mapreduce.lib.input.TextInputFormat; 022 import?org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; 023 imp

您可能关注的文档

文档评论(0)

tazhiq2 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档