网站大量收购独家精品文档,联系QQ:2885784924

vm下ubuntu集群安装hadoop.doc

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
vm下ubuntu集群安装hadoop

vm下ubuntu集群安装hadoop 在wm下安装ubuntu9.10 更新deb软件包列表:$ sudo apt-get update 安装系统更新 $ sudo apt-get upgrade 安装JDK $ sudo apt-get install sun-java6-jdk //默认路径为:/usr/lib/jvm 设置CALSSPATH和JAVA_HOME $ sudo gedit /etc/environment 添加:CLASSPATH=”.:/usr/lib/jvm/java-6-sun/lib” JAVA_HOME=”/usr/lib/jvm/java-6-sun” 调整系统虚拟机的优先顺序 $ sudo gedit /etc/jvm 在文件顶部添加一行 /usr/lib/jvm/java-6-sun 如果文件/etc/jvm不存在则自己新建 下载hadoop-0.20.0.tar.gz $ cd /home/fly //设当前用户名为:fly $ sudo tar xzf hadoop-0.20.0.tar.gz //解压 $ mv hadoop-0.20.0 hadoop //重命名文件夹 $ sudo chown –R fly:fly hadoop //赋于fly权限 更新hadoop环境变量 $ gedit hadoop/conf/hadoop-env.sh 将#export JAVA_HOME= *** 这一行改为: export JAVA_HOME=/usr/lib/jvm/java-6-sun 配置ssh $ sudo apt-get install ssh $ sudo apt-get install rsync $ ssh-keygen –t dsa –P ‘’ –f ~/.ssh/id_dsa $ cat ~/.ssh/id_dsa.pub ~/.ssh/authorized_keys $ ssh localhost //验证配置成功与否 10、在wm下复制出另外两个虚拟机,并分别把这三个虚线拟分别更名为:dream1、dream2、dream3(更改主机名的方法在这就不写了。) 建立三个虚拟机的通信: 安装过wm后,电脑网络连接里会多出现两个网络连接 设置共享原来的本地连接: 设置虚拟机连接: 其中的IP自己设,DNS可不设置。 在dream1虚拟机里添加一个网络连接设置: 分别再设置另两个dream2,dream3的IP分别为:192.168.100.126、192.168.100.127 注意:今后如需连接互联网则用以前默认的自动获取IP的连接:auto eth0, 三个虚拟机通信见则切换联接:wired connection1 Namenode :dream1 Datenode:dream2\dream3 11、(每个虚拟机都要做) $ sudo gedit /etc/hosts 添加数据: 192.168.100.125 dream1 192.168.100.126 dream2 192.168.100.127 dream3 12、配置SSH(保证无密码访问) 在dream2\dream3上分别执行 $ scp fly@dream1:/home/fly/.ssh/id_dsa.pub /home/fly/.ssh/dream1_dsa.pub $ cat ~/.ssh/dream1.pub ~/.ssh/authorized_keys 在dream1上执行 $ scp fly@dream1:/home/fly/.ssh/id_dsa.pub /home/fly/.ssh/dream1_dsa.pub $ cat ~/.ssh/dream1.pub ~/.ssh/authorized_keys 13、配置conf/masters , conf/slaves 在所有节点上: hadoop 目录/conf/masters加入一行:dream1 hadoop 目录/conf/slaves加入行: dream2 dream3 14、配置core-site.xml , hdfs-site.xml , mapred-site.xml core-site.xml: hdfs-site.xml: mapred-site.xml: 15、格式化分布式文件系统 在namenode上 $ sudo bin/hadoop namenode –format 启动HDFS,在namenode上 $ bin/start-all.sh $ bin/stop-all.sh

文档评论(0)

jgx3536 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:6111134150000003

1亿VIP精品文档

相关文档