- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
4MapReduce例子研讨
MapReduce例子
刘祥涛
2017-4-6
回顾MapReduce编程
单词计数
数据去重
排序
平均成绩
单表关联
编程环境准备
编程环境准备:
安装配置Java环境
安装配置Hadoop
安装Eclipse(Version: 3.3.2)
安装插件hadoop-0.20.2-eclipse-plugin.jar
MapReduce编程过程
就是继承类与实现接口的过程。这些类与接口来自于Hadoop的Map-Reduce框架,由框架控制其执行流程。
Java多态性:对象的引用型变量。
编程过程的三个阶段:
输入阶段
计算阶段
输出阶段
MapReduce编程过程
与输入相关的几个抽象类
InputFormat
文件分割,读取。FileInputFormat从文件中读取数据。
InputSplits
定义了输入到单个Map任务的输入数据。
RecordReader
定义了如何从数据上转化为一个(key,value)对,从而输出到Mapper类中。
与计算相关的几个抽象类
Mapper
map()方法处理输入K1, V1,产生输出K2, V2。
Reducer
reduce()方法处理Map的输入K2, list(V2),产生输出K3, V3。
Combiner
实现Reducer接口,对map()输出进行规约。
Partitioner
分发map()输出给不同的Reduce任务。
与输出相关的几个抽象类
OutputFormat
数据输出。FileOutputFormat输出到文件。
RecordWriter
输出一个记录到文件中。
其它重要类与接口
Configuration类
读取配置文件。如:core-default.xml、core-site.xml等。
Job类
配置、提交Job,控制其执行,查询其状态。
Writable接口
序列化输入输出。任何Key, Value都需要实现它。
WritableComparable接口
可比较的序列化输入输出。任何Key都需要实现它。
实例1:WordCount分析
参见 例子/WordCount.java
实例2:数据去重
目的:
利用并行化思想来对数据进行有意义的筛选。
应用场景:
统计大数据集上的数据种类个数
从网站日志中计算访问等问题中的数据去重。
实例描述
file1: file2: 输出:
实例2:数据去重
问题分析
数据去重的最终目标是让原始数据中出现次数=1的数据在输出文件中只出现一次。
我们自然而然会想到将同一个数据的所有记录都交给一台reduce机器,无论这个数据出现多少次,只要在最终结果中输出一次就可以了。
具体就是reduce的输入应该以数据作为key,而对value-list则没有要求。当reduce接收到一个key,value-list时就直接将key复制到输出的key中,并将value设置成空值。
实例2:数据去重
算法设计
k1,v1?map?k2,v2?合并shuffle?k2,v_list?reduce?k3,v3
在MapReduce流程中,map的输出key,value经过shuffle过程聚集成key,value-list后会交给reduce。
所以从设计好的reduce输入可以反推出map的输出key应为数据,value任意。
继续反推,map输出数据的key为数据,而在这个实例中每个数据代表输入文件中的一行内容,所以map阶段要完成的任务就是在采用Hadoop默认的作业输入方式之后,将value设置为key,并直接输出(输出中的value任意)。
map中的结果经过shuffle过程之后交给reduce。reduce阶段不会管每个key有多少个value,它直接将输入的key复制为输出的key,并输出就可以了(输出中的value被设置成空了)。
实例2:数据去重
代码:见 例子/ Dedup.java
编译:
$cd ~/hadoop-1.1.1
$vi Dedup.java
$mkdir Dedup
$javac -classpath hadoop-core-1.1.1.jar:lib/commons-cli-1.2.jar -d Dedup Dedup.java
$ ~/jdk1.6.0_37/bin/jar -cvf dedup.jar -C Dedup/ .
实例2:数据去重
创建输入
上传到hadoop
$bin/hadoop fs -put dedup_input dedup_in
查看hdfs
$ bin/hadoop fs -ls /user/liuxt/dedup_in
实例2:数据去重
执行
$ bin/hado
您可能关注的文档
最近下载
- Fronius伏能士 TPS320 400 500 600iv TPS400 LSCADV MIG.MAG电源操作手册.pdf VIP
- 4 2实现中华民族伟大复兴的中国梦-议题式教学课件 23张-【新教材】2021-2022学年统编版(2019)高中政治必修一.pptx VIP
- 预制钢筋混凝土装配式检查井施工方案.pdf VIP
- 14J936 变形缝建筑构造.docx VIP
- 有限公司股权激励计划协议限制性股权.pdf VIP
- 金融业三个办法新规及实操要点解读课件.pptx VIP
- 人教版小学三年级下册劳动教育完整教案.pdf VIP
- 公文语言的特点.doc VIP
- 辅助生殖拮抗剂方案标准化应用专家共识.pptx VIP
- 国家建筑标准设计图集22G101-3 混凝土结构施工图平面整体表示方法制图规则和构造详图(独立基础、条形基础、筏形基础、桩基础).pdf VIP
文档评论(0)