- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
实 验 报 告
(2014 / 2015 学年 第 二 学期)
课程名称 云计算 实验名称 Hadoop单机及集群配置 2015 年 5 月 13 日 指导单位 指导教师
学生姓名 班级学号 学院(系) 专 业
实 验 报 告
实验名称 Hadoop单机及集群配置 实验类型 上机 实验学时 2 实验时间 2015.5.13 实验目的和要求
实验要求:学会Hadoop单机版及集群的安装配置Hadoop的及环境Hadoop的为adoop数据分析奠定基础
虚拟机Ubuntu14.04、hadoop-1.2.1 三、实验原理及内容
1、安装Ubuntu14.04
使用VMware Workstation安装虚拟机Ubuntu14.04
2、hadoop用户组
(1)创建hadoop用户组:sudo addgroup hadoop
创建hadoop用户:sudo adduser -ingroup hadoop hadoop
为hadoop用户添加权限:
sudo gedit /etc/sudoers,在打开的文件中添加一句hadoop ALL=(ALL:ALL)ALL, 其中hadoop和ALL之间的空格使用TAB键。
(4)使用hadoop用户登录系统
重新打开Ubuntu,发现登陆界面多了一个hadoop用户,用hadoop用户登录系统。
3、SSH配置
(1)Ubuntu14.04已默认安装ssh的客户端,只需要安装服务器端即可,但在实际操作时,发现由于是刚安装的Ubuntu系统,该系统没有更新,还没有安装ssh,因此先使用系统更新命令sudo apt-get update更新系统。
(2)安装ssh:sudo apt-get install openssh-server。
启动ssh:sudo /etc/init.d/ssh start
查看服务是否正确启动:ps -e | grep ssh。
设置免密码登录,生成私钥和公钥:ssh-keygen -t rsa -P
(5)将公钥追加到authorized_keys(authorized_keys用于保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容)中:cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
退出:exit
(6)测试是否已完成:java -version
(sudo update-alternatives --config java可查看当前各种版本和配置)
6、测试wordcount
(1)创建input文件夹:sudo mkdir /usr/local/hadoop/input
(2)将hadoop文件夹下的README.txt文件拷贝至input中:sudo cp README.txt input
(3)执行:hadoop jar hadoop-examples-1.2.1.jar wordcount input output
4.查看结果:cat output/*
7、伪分布式配置
在hadoop文件夹下创建文件夹:tmp,hdfs,hdfs/name,hdfs/data
修改data的权限:sudo chmod 755 hdfs/data
修改conf/中core-site.xml文件
修改conf/中hdfs-site.xml文件
修改mapred-site.xml文件
(9)可以通过浏览器页面查看运行状态
http://localhost:50030/ - Hadoop 管理介面
http://localhost:50060/ - Hadoop Task Tracker 状态http://localhost:50070/ - Hadoop DFS 状态
(10)wordcount检测:
在dfs中创建input目录:hadoop dfs -mkdir input
将README.txt拷贝至input中:hadoop dfs -copyFromLocal README.txt input
运行wordcount:hadoop jar hadoop-examples-1.2.1.jar wordcount input output
查看结果:hadoop dfs -cat output/*
四、实验小结
实验中遇到的问题:
当我停止Hadoop时发现“no datanode to stop”,原因是每次namenode format会重新创建一个namenodeId,而tmp/dfs/data下包含了上次format下的id,namenode format清空了namenode下的数据,但是
您可能关注的文档
最近下载
- 海尔集团资本运营案例研究.pptx VIP
- 幼儿园课件:绘本《太阳想吃冰淇淋》.pptx
- 锅炉安全操作培训记录.docx VIP
- 流感样病例暴发疫情处置指南(2022版).docx VIP
- 李坚贞忠之士贞.pptx VIP
- SL 670-2015 水利水电建设工程验收技术鉴定导则.docx VIP
- 红光机器厂实训报告总结与反思.pptx VIP
- 人工智能技术在乳腺癌风险分层管理和治疗策略中的应用相关试题及答案.doc VIP
- MBN_LV_124-1_2013-03 12V车载电子系统电气要求和测试.pdf VIP
- SJT 11364-2014 电子电气产品有害物质限制使用标识要求.pdf VIP
原创力文档


文档评论(0)