hadoop集群部署笔记.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
hadoop集群部署笔记

hadoop集群部署1) 安装jdk 下载jdk-6u21-linux-i586.bin然后修改/etc/profile:export JAVA_HOME=/usr/local/jdk export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$PATH:$JAVA_HOME/bin 保存,并执行source /etc/profile 2) 配置host Namenode的机器,需要配置集群中所有机器的ip修改/etc/hosts 90 master 91 slave-A 93 slave-B 其他的datanode的/etc/hosts 只需要配置namenode的机器ip和本机ip90 master 91 slave-A 修改hostname(可选)vi /proc/sys/kernel/hostname 3) 建立ssh无密码登录 首先进到root目录下 root@master:~# $ssh-keygen -t rsa 进入.ssh目录 root@master:~/.ssh# cp id_rsa.pub authorized_keys 其余的datanode的机器 新建.ssh目录 root@slave-A:~# mkdir .ssh 在name(master)上远程拷贝 root@master:~/.ssh# scp authorized_keys slave-A:/root/.ssh/ 测试ssh 4) 安装hadoop 下载Hadoop 解压到每台服务器的/data/soft 解压root@master:/data/soft# tar zxvf hadoop-0.21.0.tar.gz 建立软连root@master:/data/soft# ln -s hadoop-0.21.0 hadoop 然后修改/etc/profile export HADOOP_HOME=/data/soft/hadoop export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin 5) 配置hadoop 1.修改conf/hadoop-env.sh,添加jdk支持export JAVA_HOME=/usr/local/jdk 如果ssh端口不是默认的22,在conf/hadoop-env.sh里改下。如:export HADOOP_SSH_OPTS=-p 12342.修改conf/core-site.xml,增加下面内容 property name/name valuehdfs://master:54310/value //这个才是真正决定namenode /property property namehadoop.tmp.dir/name value/data/hdfs/tmp/value //临时文件,有问题的时候,可以删除 descriptionA base for other temporary directories./description /property 3.修改conf/hdfs-site.xml,增加下面内容 property name.dir/name value/data/hdfs/name/value //namenode持久存储名字空间,事务日志的本地路径 /property property namedfs.data.dir/name value/data/hdfs/data/value //datanode存放数据的路径 /property property namedfs.datanode.max.xcievers/name value4096/value /property property namedfs.replication/name value1/value //数据备份的个数,默认是3 /property 3.修改conf/mapred-site.xml,增加下面内容 property namemapred.job.tracker/name //jobTracker的主机 valuemaster:54311/value /property 4. .修改conf/masters,这个决定那个是secondarynamenode master5 .修改conf/slaves,这个是所有datanode的机器 slaves-Aslaves-B6) 将配置好的hadoop拷贝到所有的datanode root@master:/data/soft/hadoop/conf# scp -rp /data/soft/hadoop-0.21.0 91:

文档评论(0)

hagoulz + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档