hadoop伪分布式安装方法.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
hadoop伪分布式安装方法

hadoop伪分布式安装方法 [日期:2014-04-30] 来源:51CTO 作者:晓晓 [字体:大 中 小] 接触Hadoop也快两年了,也一直没自己总结过安装教程,最近又要用hadoop,需要自己搭建一个集群来进行试验,所以就利用这个机会来写个教程以备以后自己使用,也用来和大家一起探讨。 要安装Hadoop先安装其辅助环境 java Ubuntu下java的安装与配置 将java安装在指定路径方便以后查找使用。 Java安装 1)在/home/xx(也就是当前用户)目录下,新建java1.xx文件夹:mkdir /home/xx/java1.xx(文件名上表明版本号,方便日后了解java版本) 2)进入/home/xx/java1.xx目录下,运行安装指令:sudo /home/xx /jdk-6u26-linux-i586.bin,则生成文件夹jdk1.6.0_26,如果感觉名字太长,可以对其重命名:mv jdk1.6.0_26 jdk 也可以使用sudoapt-get install 软件包来安装java。如果想卸载java使用命令sudo rm -rf /home/xx/java1.6/jdk1.6(安装目录) 配置环境变量 进入profile文件添加环境配置,命令为sudo gedit /etc/profile 在文件的末尾添加 1 2 3 4 5 6 7 JAVA_HOME=/home/xx/java1.xx/jdk JRE_HOME=/home/xx /java1.xx/jdk/jre PATH=$JAVA_HOME/bin:$JRE_HOME/bin: $PATH export JAVA_HOME export JRE_HOME export CLASSPATH export PATH 完成以上配置后重启电脑然后检验java是否安装成功在终端输入java –version 后显示 说明java安装成功。 Java安装成功后接着进入正题进行Hadoop的安装,本文先进行Hadoop的伪分布安装随后会继续更新完全分布的安装过程。 本文使用的Hadoop版本是hadoop-0.20.2,将hadoop-0.20.2.tar.gz移至当前用户目录下进行解压tar –zxvf hadoop-0.20.2.tar.gz 然后配置hadoop的环境变量,其配置方法和java的配置方法一样,在profile中写入HADOOP_HOME=/home/xx/hadoop Java和hadoop的配好的环境变量如图 配好环境后可以用hadoop version 查看版本(需要重启电脑)。 接着对hadoop的配置文件进行配置。进入hadoop/conf路径下,修改hadoop-env.sh文件 sudo gedit hadoop-env.sh对其添加javahome 完成以上配置之后就可以在单机模式进行测试了 输出结果为: 出现上面的结果说明之前的步骤你都部署正确。接下来进行伪分布的配置,进入hadoop/conf目录下对core-site.xml进行编辑,添加如下内容 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 property namehadoop.tmp.dir/name value/home/xx/hadoop/tmp/value /property property namefs.default.name/name valuehdfs://xx:9000/value//也可以是主机的ip /property 对hdfs-site.xml进行编辑,添加如下内容 property namedfs.replication/name value3/value /property 对mapred-site.xml进行编辑,添加如下内容 property namemapred.job.tracker/name valuexx:9001/value /property 完成以上工作后,终于可以运行hadoop了,运行时要先对hdfs进行格式化(貌似跟新买一块硬盘时初次使用也得格式化的道理一样),命令为bin/hadoop namenode –format出现如下画面为成功 接着就是启动hadoop了,激动人心的时刻到了哦,bin/start-all.sh 结果出现了如下画面 貌似子节点没有启动,显示连接被拒绝,然后用jps查看下启动了几个任务 子节点真的没有起来,看来伪分布也得配置ssh,接下来的任务就是继续配置ssh了 1.先命令 1 sudo apt-get installssh 2.然后配置可以无密码登陆本机: 由于本文是伪分布的,只在自己机器

文档评论(0)

didala + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档