- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
hadoop伪分布式安装方法
hadoop伪分布式安装方法
[日期:2014-04-30] 来源:51CTO 作者:晓晓 [字体:大 中 小] 接触Hadoop也快两年了,也一直没自己总结过安装教程,最近又要用hadoop,需要自己搭建一个集群来进行试验,所以就利用这个机会来写个教程以备以后自己使用,也用来和大家一起探讨。
要安装Hadoop先安装其辅助环境 java
Ubuntu下java的安装与配置
将java安装在指定路径方便以后查找使用。
Java安装
1)在/home/xx(也就是当前用户)目录下,新建java1.xx文件夹:mkdir /home/xx/java1.xx(文件名上表明版本号,方便日后了解java版本)
2)进入/home/xx/java1.xx目录下,运行安装指令:sudo /home/xx /jdk-6u26-linux-i586.bin,则生成文件夹jdk1.6.0_26,如果感觉名字太长,可以对其重命名:mv jdk1.6.0_26 jdk
也可以使用sudoapt-get install 软件包来安装java。如果想卸载java使用命令sudo rm -rf /home/xx/java1.6/jdk1.6(安装目录)
配置环境变量
进入profile文件添加环境配置,命令为sudo gedit /etc/profile 在文件的末尾添加
1
2
3
4
5
6
7 JAVA_HOME=/home/xx/java1.xx/jdk
JRE_HOME=/home/xx /java1.xx/jdk/jre
PATH=$JAVA_HOME/bin:$JRE_HOME/bin: $PATH
export JAVA_HOME
export JRE_HOME
export CLASSPATH
export PATH 完成以上配置后重启电脑然后检验java是否安装成功在终端输入java –version 后显示
说明java安装成功。
Java安装成功后接着进入正题进行Hadoop的安装,本文先进行Hadoop的伪分布安装随后会继续更新完全分布的安装过程。
本文使用的Hadoop版本是hadoop-0.20.2,将hadoop-0.20.2.tar.gz移至当前用户目录下进行解压tar –zxvf hadoop-0.20.2.tar.gz
然后配置hadoop的环境变量,其配置方法和java的配置方法一样,在profile中写入HADOOP_HOME=/home/xx/hadoop
Java和hadoop的配好的环境变量如图
配好环境后可以用hadoop version 查看版本(需要重启电脑)。
接着对hadoop的配置文件进行配置。进入hadoop/conf路径下,修改hadoop-env.sh文件 sudo gedit hadoop-env.sh对其添加javahome
完成以上配置之后就可以在单机模式进行测试了
输出结果为:
出现上面的结果说明之前的步骤你都部署正确。接下来进行伪分布的配置,进入hadoop/conf目录下对core-site.xml进行编辑,添加如下内容
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18 property
namehadoop.tmp.dir/name
value/home/xx/hadoop/tmp/value
/property
property
namefs.default.name/name
valuehdfs://xx:9000/value//也可以是主机的ip
/property
对hdfs-site.xml进行编辑,添加如下内容
property
namedfs.replication/name
value3/value
/property
对mapred-site.xml进行编辑,添加如下内容
property
namemapred.job.tracker/name
valuexx:9001/value
/property 完成以上工作后,终于可以运行hadoop了,运行时要先对hdfs进行格式化(貌似跟新买一块硬盘时初次使用也得格式化的道理一样),命令为bin/hadoop namenode –format出现如下画面为成功
接着就是启动hadoop了,激动人心的时刻到了哦,bin/start-all.sh 结果出现了如下画面
貌似子节点没有启动,显示连接被拒绝,然后用jps查看下启动了几个任务
子节点真的没有起来,看来伪分布也得配置ssh,接下来的任务就是继续配置ssh了
1.先命令
1 sudo apt-get installssh 2.然后配置可以无密码登陆本机:
由于本文是伪分布的,只在自己机器
文档评论(0)