云计算-基于Hadoop的数据分析.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

实验报告

实验名称

基于的Hadoop数据分析

指导教师

实验类型

上机

实验学时

2

实验时间

2015/12/1

实验目的和要求

实验要求:

掌握基于Hadoop单机版的数据分析

实验目的:

在掌握Hadoop的工作原理根底上,学会对不同数据集的分析与挖掘;

二、实验环境

三、实验原理及内容

(1)在第一次实验的根底上安装eclipse

1.将eclipse解压到usr/local目录下:

sudotarxzvfeclipse-SDK-4.3.1-linux-gtk-x86_64.tar.gz

-C/usr/local

2.授权:sudochmod-R777/usr/local/eclipse

将hadoop插件拷贝到/usr/local/eclipse/plugins下

4.设置eclipse的Java环境:在eclipse下创立一个jre文件夹sudomkdirjre,进入该文件夹:cdjre,

参加一条连接指令ln-s/usr/lib/jvm/java-7-sun/binbin

(2)在eclipse中添加Map/Reduce:点击上方window选项,依次选择openperspective,other,Map、Reduce,如下列图所示:

(3)设置Map/Reducelocation,选择Map/Reducelocations,newhadooplocation,将其中的内容设置成下列图所示的内容:

设置Advancedparameters中的tmp文件夹位置为/usr/local/hadoop/tmp,如下列图所示:

(4)设置hadoop的安装路径:依次点击window,preferences,HadoopMap/Reduce,设置hadoop安装路径为/usr/local/hadoop

(5)在桌面新建三个文件,如下图:

新建一个Map/ReduceProject:右击左侧空白处,选择新建一个如下列图所示的Map/ReduceProject:

点击Next,输入工程名为average,再点击finish。

新建一个Javaclass:右击左侧的average,依次选择New,class,设置内容如下列图所示:

点击finish完成。

(8)参加Java代码:

Packagecom.hebut.mr;

Importjava.io.IOException;

Importjava.util.Iterator;

Importjava.util.StringTokenizer;

Importorg.apache.hadoop.conf.Configuration;

Importorg.apache.hadoop.fs.Path;

Importorg.apache.hadoop.io.IntWritable;

Importorg.apache.hadoop.io.LongWritable;

Importorg.apache.hadoop.io.Text;

Importorg.apache.hadoop.mapreduce.Job;

Importorg.apache.hadoop.mapreduce.Mapper;

Importorg.apache.hadoop.mapreduce.Reducer;

Importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;

Importorg.apache.hadoop.mapreduce.lib.input.TextInputFormat;

Importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

Importorg.apache.hadoop.mapreduce.lib.output.TextOutputFormat;

Importorg.apache.hadoop.util.GenericOptionsParser;

PublicclassScore{

PublicstaticclassMapextends

MapperLongWritable,Text,Text,IntWritable{

//实现map函数

Publicvoidmap(LongWritablekey,Textvalue,Contextcontext)

ThrowsIOException,InterruptedException{

//将输入的纯文本文件的数据转化成String

Stringline=value.t

文档评论(0)

199****4744 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:7002121022000045

1亿VIP精品文档

相关文档