- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
实验报告
实验名称
基于的Hadoop数据分析
指导教师
实验类型
上机
实验学时
2
实验时间
2015/12/1
实验目的和要求
实验要求:
掌握基于Hadoop单机版的数据分析
实验目的:
在掌握Hadoop的工作原理根底上,学会对不同数据集的分析与挖掘;
二、实验环境
三、实验原理及内容
(1)在第一次实验的根底上安装eclipse
1.将eclipse解压到usr/local目录下:
sudotarxzvfeclipse-SDK-4.3.1-linux-gtk-x86_64.tar.gz
-C/usr/local
2.授权:sudochmod-R777/usr/local/eclipse
将hadoop插件拷贝到/usr/local/eclipse/plugins下
4.设置eclipse的Java环境:在eclipse下创立一个jre文件夹sudomkdirjre,进入该文件夹:cdjre,
参加一条连接指令ln-s/usr/lib/jvm/java-7-sun/binbin
(2)在eclipse中添加Map/Reduce:点击上方window选项,依次选择openperspective,other,Map、Reduce,如下列图所示:
(3)设置Map/Reducelocation,选择Map/Reducelocations,newhadooplocation,将其中的内容设置成下列图所示的内容:
设置Advancedparameters中的tmp文件夹位置为/usr/local/hadoop/tmp,如下列图所示:
(4)设置hadoop的安装路径:依次点击window,preferences,HadoopMap/Reduce,设置hadoop安装路径为/usr/local/hadoop
(5)在桌面新建三个文件,如下图:
新建一个Map/ReduceProject:右击左侧空白处,选择新建一个如下列图所示的Map/ReduceProject:
点击Next,输入工程名为average,再点击finish。
新建一个Javaclass:右击左侧的average,依次选择New,class,设置内容如下列图所示:
点击finish完成。
(8)参加Java代码:
Packagecom.hebut.mr;
Importjava.io.IOException;
Importjava.util.Iterator;
Importjava.util.StringTokenizer;
Importorg.apache.hadoop.conf.Configuration;
Importorg.apache.hadoop.fs.Path;
Importorg.apache.hadoop.io.IntWritable;
Importorg.apache.hadoop.io.LongWritable;
Importorg.apache.hadoop.io.Text;
Importorg.apache.hadoop.mapreduce.Job;
Importorg.apache.hadoop.mapreduce.Mapper;
Importorg.apache.hadoop.mapreduce.Reducer;
Importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;
Importorg.apache.hadoop.mapreduce.lib.input.TextInputFormat;
Importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
Importorg.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
Importorg.apache.hadoop.util.GenericOptionsParser;
PublicclassScore{
PublicstaticclassMapextends
MapperLongWritable,Text,Text,IntWritable{
//实现map函数
Publicvoidmap(LongWritablekey,Textvalue,Contextcontext)
ThrowsIOException,InterruptedException{
//将输入的纯文本文件的数据转化成String
Stringline=value.t
文档评论(0)