hadoop及hive 集群配置安装文档.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Hadoop及hive集群配置安装文档 安装说明: 1) 首先我们统一一下定义,在这里所提到的Hadoop是指Hadoop Common,主要提供 DFS (分布式文件存储)与Map/Reduce的核心功能。 2) Hadoop在windows下还未经过很好的测试,所以目前只能在linux,unix环境下安装。 3) 为了避免出现权限方面的问题,请使用root用户登录安装。 4) 要使用hive必须先安装Hadoop环境,所以我们的安装步骤以Hadoop为先。 5) 首先登录进入master机,然后再进入slave机,两者的对hadoop安装配置顺序是一 致的。对于hive的安装与相关配置只在master机器上。 6) 本文档中使用 了 jdk1.6, rsync3.0,hadoop-0.20.2, hive-0.6.0 的 tar 包,要想安装 Hadoop 请从相关网站下载。 机器情况: 机器型号:HP Praliant DL380服务器* 2 机器 IP: 4 (master 机) 3(slave 机) 操作系统:Red Hat Enterprise 5.5(linux) HADOOP 环境:hapoop-0.20.2 HIVE 环境:hive-0.6.0-bin 准备工作: 准备安装Hadoop集群之前我们得先检验系统是否安装了如下的必备软件:ssh、rsync 和Jdk1.6 (因为Hadoop需要使用到Jdk中的编译工具,所以一般不直接使用Jre)。 SSH: 一般在安装系统后已经存在,可以用rpm qa openssh-server检查是否已经安装。 如未安装可以在系统光盘寻找openssh-server-4.3p2-16.el5.i386.rpm安装。 rsync:rsync-3.0.8pre1.tar JDK:这里的JDK版本至少是1.5,本次实验的版本是1.6 开始安装: 第一步:安装JDK1.6 LINUX 下安装 JDK1.6 .doc 第二步:安装HADOOP环境 安装文件:hadoop-0.20.2.tar.gz 卜面是在linux平台下安装 卜面是在linux平台下安装Hadoop的过程: 这里注意最后一步,最好把HADOOP_HOME写入/etc/profile中然后注销,重新用root用户 登录:vi /etc/profile 在profile末尾写入以下两行 export HADOOP_HOME=/opt/hadoop/hadoop-0.20.2 export HADOOP_HOME 第三步:配SSSH 如果事先不存在authorized_keys,先要执行命令: touch ~/.ssh/authorized_keys [root@localhost] ssh-keygen -t rsa [root@localhost] #以下是生成一个为id_rsa/id_rsa.pub的无密码的公/私钥对 Generating public/private rsa key pair. Enter file in which to save the key (/root/.ssh/id_rsa): Enter passphrase (empty for no passphrase): Enter same passphrase again: [root@localhost] ls -l ~/.ssh 1675 Jul 5 14:01 id_rsa394 Jul 5 14:01 id_rsa.pubcat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys 1675 Jul 5 14:01 id_rsa 394 Jul 5 14:01 id_rsa.pub cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys #因为ssh服务对文件的权限有着非常严格的限制 -rw 1 root root -rw-r--r-- 1 root root [root@localhost] [root@localhost] (authorized_keys只能拥有指定用户的写权限)于是需要进行如下处理 [root@localhost] chmod 644 ~/.ssh/authorized_keys 经过以上步骤,我们的无密码访问就配置好了,可以通过如下命令进行验证: [root@localhost] ssh 3 [ root@3] exit [root@localhost] ssh 4 [root@ 4] exit 第四步:配置 Hadoop相关文件 对$HADOOP_HOME/src 文件下的 core-site.xml,hdfs-site.xml,

文档评论(0)

l521314z + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档