4_课程四:海量数据处理-Hive数据仓库要点.pptVIP

4_课程四:海量数据处理-Hive数据仓库要点.ppt

  1. 1、本文档共66页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Hive 数据仓库 数据系统的进化-一代 数据系统的进化-二代 数据系统的进化-三代 暴风指数 暴风指数 暴风指数 Data Warehousing at Facebook 使用UDF add jar /tmp/helloUDF.jar; create temporary function helloworld as com.hrj.hive.udf.HelloUDF; select helloworld(t.col1) from t limit 10; drop temporary function helloworld; 创建 LZO 压缩表 CREATE EXTERNAL TABLE foo ( columnA string, columnB string ) PARTITIONED BY (date string) ROW FORMAT DELIMITED FIELDS TERMINATED BY \t STORED AS INPUTFORMAT com.hadoop.mapred.DeprecatedLzoTextInputFormat OUTPUTFORMAT org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat LOCATION /data/dw/uid/; Hive Lzo 文件加载流程 压缩 lzop uid.txt 上传 hadoop fs -put uid.txt.lzo /data/dw/uid/ 创建索引 hadoop jar /path/to/your/hadoop-lzo.jar pression.lzo.DistributedLzoIndexer /data/dw/uid/uid.txt.lzo 生成 1000w ids hadoop jar contrib/streaming/hadoop-streaming-1.0.3.jar -mapper seq 100000 -numReduceTasks 0 -input /user/hadoop/PiEstimator_TMP_3_141592654/in/ -output /opt/ids/ 生成r.pl代码 #! /usr/bin/perl -X $i=0; while($i=10000){ $i++; print ` /dev/urandom tr -dc _A-Z-a-z-0-9 | head -c10`.\n\r; } hadoop jar contrib/streaming/hadoop-streaming-1.0.3.jar -mapper cat -reducer seq 10000 -numReduceTasks 10 -input /data/ -output /data/test3/ 1.seq 10 text hadoop fs -put test /data/text hadoop jar contrib/streaming/hadoop-streaming-1.0.3.jar -mapper cat -reducer seq 10000 -numReduceTasks 10 -input /data/text -output /data/test3/ CREATE EXTERNAL TABLE test3 (text string) LOCATION /data/test3/ 优化策略 使用 Partition 减少扫描数量 使用Map端Join 配置Reduce数量 xml,json 提取 适用脚本提取,而非使用函数 使用 INSERT INTO LOCAL DIRECTORY ‘/home/me/pv_age_sum.dir’ ,而非适用 HiveServer 。 使用 LZO 压缩存储数据 适用外部表,而非内部表 press.output = false,true 适用队列管理任务执行 生成100亿车牌号 hadoop jar hadoop-examples-1.0.3.jar pi 100 10000 生成 100个文件 hadoop jar contrib/streaming/hadoop-streaming-1.0.3.jar -numReduceTasks 0 -file rand.pl -mapper rand.pl -input /user/root/PiEstimator_TMP_3_141592654/in -output /opt/chepai/ Hive 高可用措施 健全监控体系 使用负载均

文档评论(0)

boss + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档