Hadoop学习-2-HADOOP安装.doc

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
文档全是精心选出来的精品资料,绝对值得下载!

HADOOP_2_HADOOP安装 实验目的 hadoop的安装方式分为单机的伪分布式安装和真正的分布式安装,本实验是在多节点上的分布式安装方式。让使用者学会安装和配置。能够熟练安装hadoop的用户可以跳过 先决条件 实验人员对于?1.Linux熟悉?环节中的命令很熟练 实验过程 jdk安装 1.??????在/root下有准备好的jdk文件: ? 先在/usr下新建文件夹java:mkdir /usr/java 再把准备好的jdk文件拷贝到/usr/java下: 2.??????设置环境变量JAVA_HOME 切换到hadoop用户,执行vi /home/hadoop/.bashrc?打开.bashrc文件,在该配置文件末尾添加: export JAVA_HOME=/usr/java/jdk_1.7.0_17 如图: ? 一下划横线部分关于“无密码访问”,环境在hadoop用户中已经准备好,可以直接跳过,如果想尝试步骤的,可以新建一个用户自行尝试。 ?无密访问设置 #su hadoop?//切换到hadoop用户 $cd /home/hadoop 1.???????生成id_rsa.pub文件 $ssh-keygen -t rsa $cd .ssh 这里要注意,执行完命令后要选择生成文件所放的位置,按回车即选择默认即可。 [hadoop@localhost ~]$ ssh-keygen -t rsa Generating public/private rsa key pair. Enter file in which to save the key (/home/hadoop /.ssh/id_rsa):?(此处按回车) Created directory /home/hadoop/.ssh. Enter passphrase (empty for no passphrase):?????????????????(此处按回车) Enter same passphrase again:???????????????????????????????(此处按回车) Your identification has been saved in /home/hadoop/.ssh/id_rsa. Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub. The key fingerprint is: 23:a8:36:c7:c3:89:1a:f9:97:00:88:36:73:d6:5a:0b hadoop@localhost The keys randomart image is: +----+ | | | | |o . | |++ E + | |..= = o S | | ..* o . . | |o =.*. | | = oo. | |. .. | 2.???????把公钥追加到此文件: $cat id_rsa.pub authorized_keys ? $chmod 600 /home/hadoop/.ssh/authorized_keys $chmod 700 /home/hadoop/.ssh 3.???????修改sshd_config文件(每个节点在root用户下都需要执行一遍): 退出hadoop用户:exit #vim /etc/ssh/sshd_config RSAAuthentication yes?//进去后发现已经是yes,就没有改。 ? 4.???????将无密访问设置同步到其他所有节点: $scp -rp /home/hadoop/.ssh?hostname:/home/hadoop/ ? ? 5.???????启动sshd服务: 在其他所有节点上执行: #service ssh restart ? 主节点部署 关闭防火墙: 进入root用户,执行命令: ufw disable 建议目录部署: 在每个节点切换到hadoop用户:su hadoop 在每个节点上手动创建hadoop运行文件目录:mkdir –p /home/hadoop/deploy Hadoop部署中还会用到如下目录: hadoop数据目录:?/home/hadoop/sysdata hadoop namenode数据目录:?/home/hadoop/namenode hadoop临时文件目录:?/home/hadoop/secondaryname hadoop临时文件目录:?/home/hadoop/tmp mapred临时文件目录: /home/hadoop/mapred 这些目录不需要手动创建,在集群搭建完成后,启动集群时会自动创建 将准备好的hadoop-1

文档评论(0)

xcs88858 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:8130065136000003

1亿VIP精品文档

相关文档