hadoop安装指南(非常详细,包成功~).docVIP

  1. 1、本文档共16页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
- 安装HADOOP集群服务器 规划 功能 HOSTNAME IP 说明 Master HDM01 Namenode 兼datanode Slave HDS02 Datanode Slave HDS03 Datanode Client HDC04 HADOOP客户端(HDFS/HIVE) 环境 系统环境 安装 centOS6.2 = 软件工作站(software Development Workstation) Hadoop安装 安装和配置SSH 、RSYNC( Root用户) 安装 SSH和rsync 一般系统自带了; 创建Hadoop运行用户( Root用户) 一般我们不会经常使用root用户运行hadoop,所以要创建一个平常运行和管理Hadoop的用户; 创建hadoop用户和用户组 useradd hadoop PS:master和slave节点机都要创建相同的用户和用户组,即在所有集群服务器上都要建hadoop用户和用户组。 关闭防火墙( Root用户) 在启动前关闭集群中所有机器的防火墙,不然会出现datanode开后又自动关闭。所以对集群所有服务器关闭防火墙:chkconfig iptables off 查看防火墙状态:service iptables status 永久关闭防火墙:chkconfig iptables off 查看防火墙状态:chkconfig --list iptables 配置机器名和网络( Root用户) 配置HOSTNAME vi /etc/sysconfig/network,修改:HOSTNAME=hmaster 其他节点依次改为slave1,slave2…….不过必须和上面一致 验证; 输入命令 hostname 配置网络IP cd /etc/sysconfig/network-scripts vi ifcfg-eth0(因为硬件不同,其中的“eth0”可能是其他名称) 配置IP和HOSTNAME映射关系 vi /etc/hosts [root@NOAS ~]# more /etc/hosts # localhost localhost.localdomain localhost4 #localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 HDM01 HDS02 HDS03 HDC04 配置非root用户免验证登录SSH( hadoop用户) 提示:Linux配置ssh是通过欺骗登录用户名的。所以上面创建用户的时候,我们都把3个节点的username都设置成hadoop,主要是用户名必须一致 在hadoop用户的home目录,即 cd /home/hadoop 下执行命令 用hadoop用户登录(第 一/二/三步分别在每一个节点上都要执行) 第一步:ssh-keygen -t rsa -P -f ~/.ssh/id_rsa 意思是读取 id_dsa文件默认 全部是yes安装 和root用户一样,会发现多处2个文件,一个是公开密匙,一个是访问用户名字信息的 第二步:cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys 是把暴露出来的公共密匙按顺序导入authorized_keys中保存 第三步:chmod 700 ~/.ssh chmod 600 ~/.ssh/authorized_keys ssh机制很严谨,对文件的权限要求非常严格 我们需要把.ssh文件夹的权限改为700 ,默认是777 authorized_keys的权限这里是对的,600 第四步:在主节点上执行下列命令 ssh HDS02 cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys ssh HDS03 cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys scp authorized_keys hadoop@HDS02:/home/hadoop/.ssh/ scp authorized_keys HYPERLINK mailto:hadoop@GZHDS03:/home/hadoop/.ssh hadoop@HDS03:/home/hadoop/.ssh/ 最终authorized_keys文件要有各个集群服务器的信息 第五步

文档评论(0)

小屁孩 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档