- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
.
..
(原创)VM下搭建hadoop集群
前期准备
1.安装VMware_Workstation_wmb
2.安装三台CentOS-6.3-i386-bin-DVD1
Master;192.168.66.174
Slave1:192.168.66.171
Slave2:9:1.168.66.173
安装步骤:
(在安装centos时就把pc的名字改好,免得后面改hostname)
1.在每台pc上的/etc/hosts中加入:
127.0.0.1 localhost
192.168.66.174 master
192.168.66.171 slave1
192.168.66.173 slave2
2.在每台pc安装java:
在/etc/profile中加入:
export JAVA_HOME=/usr/local/java/jdk1.6.0_45
exportPATH=:$JAVA_HOME/bin:/sbin:/usr/bin:/usr/sbin:/bin
export CLASSPATH=.:$JAVA_HOME/lib
3.配置SSH无密码登录:
在每台pc上面:
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
chmod 700 .ssh
chmod 644 authorized_keys
编辑sshd配置文件/etc/ssh/sshd_config,
把#AuthorizedKeysFile .ssh/authorized_keys前面的注释取消掉。
在master上面:
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave1
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave2
重启
service sshd restart
在slave1上面:
ssh-copy-id -i ~/.ssh/id_rsa.pub root@master
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave2
重启
service sshd restart
在slave2上面:
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave1
ssh-copy-id -i ~/.ssh/id_rsa.pub root@master
重启
service sshd restart
再ssh slave1;ssh slave2;ssh master验证
**遇到Agent admitted failure to sign using the key解決方式 使用 ssh-add 指令将私钥 加进来 (根据个人的密匙命名不同更改 id_rsa)# ssh-add ~/.ssh/id_rsa
**遇到ssh: connect to host master port 22: No route to host是由于ip地址问题,检查/etc/hosts
4.配置hadoop
下载hadoop后
scp hadoop-1.2.0.tar.gz root@slave1:/usr/local
tar xzvf hadoop-1.2.0.tar.gz
mv hadoop-1.2.0 /usr/local/hadoop
在profile和./bashrc中加入:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
配置hadoop-env.sh
设置JAVA_HOME
配置core-site.xml
property
namefs.default.name/name
valuehdfs://master:9000/value
finaltrue/final
/property
property
namehadoop.tmp.dir/name
value/home/hadoop/hadoop/data/hdfs/tmp/value
/property
配置mapred-site.xml
property
namemapred.job.tracker/name
valuemaster:9001/value
/property
配置hdfs-site.xml
!-- master配 --
property
namedfs.name.dir/name
value/home/hadoop/hadoop/data/hdfs/name/valu
原创力文档


文档评论(0)