- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
                        查看更多
                        
                    
                Hadoop及hive集群配置安装文档
安装说明:
1)	首先我们统一一下定义,在这里所提到的Hadoop是指Hadoop Common,主要提供 DFS (分布式文件存储)与Map/Reduce的核心功能。
2)	Hadoop在windows下还未经过很好的测试,所以目前只能在linux,unix环境下安装。
3)	为了避免出现权限方面的问题,请使用root用户登录安装。
4)	要使用hive必须先安装Hadoop环境,所以我们的安装步骤以Hadoop为先。
5)	首先登录进入master机,然后再进入slave机,两者的对hadoop安装配置顺序是一 致的。对于hive的安装与相关配置只在master机器上。
6)	本文档中使用 了 jdk1.6, rsync3.0,hadoop-0.20.2, hive-0.6.0 的 tar 包,要想安装 Hadoop 请从相关网站下载。
机器情况:
机器型号:HP Praliant DL380服务器* 2
机器 IP: 4 (master 机)
3(slave 机)
操作系统:Red Hat Enterprise 5.5(linux)
HADOOP 环境:hapoop-0.20.2
HIVE 环境:hive-0.6.0-bin
准备工作:
准备安装Hadoop集群之前我们得先检验系统是否安装了如下的必备软件:ssh、rsync 和Jdk1.6 (因为Hadoop需要使用到Jdk中的编译工具,所以一般不直接使用Jre)。
SSH: 一般在安装系统后已经存在,可以用rpm qa openssh-server检查是否已经安装。 如未安装可以在系统光盘寻找openssh-server-4.3p2-16.el5.i386.rpm安装。
rsync:rsync-3.0.8pre1.tar
JDK:这里的JDK版本至少是1.5,本次实验的版本是1.6
开始安装:
第一步:安装JDK1.6
LINUX 下安装 JDK1.6
.doc
第二步:安装HADOOP环境
安装文件:hadoop-0.20.2.tar.gz
卜面是在linux平台下安装
卜面是在linux平台下安装Hadoop的过程:
这里注意最后一步,最好把HADOOP_HOME写入/etc/profile中然后注销,重新用root用户 登录:vi /etc/profile
在profile末尾写入以下两行
export HADOOP_HOME=/opt/hadoop/hadoop-0.20.2
export HADOOP_HOME
第三步:配SSSH
如果事先不存在authorized_keys,先要执行命令:
touch ~/.ssh/authorized_keys
[root@localhost] ssh-keygen -t rsa
[root@localhost] #以下是生成一个为id_rsa/id_rsa.pub的无密码的公/私钥对 Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
[root@localhost] ls -l ~/.ssh
1675 Jul 5 14:01 id_rsa394 Jul 5 14:01 id_rsa.pubcat ~/.ssh/id_rsa.pub  ~/.ssh/authorized_keys
1675 Jul 5 14:01 id_rsa
394 Jul 5 14:01 id_rsa.pub
cat ~/.ssh/id_rsa.pub  ~/.ssh/authorized_keys
#因为ssh服务对文件的权限有着非常严格的限制
-rw	1 root	root
-rw-r--r-- 1 root	root
[root@localhost]
[root@localhost] (authorized_keys只能拥有指定用户的写权限)于是需要进行如下处理
[root@localhost] chmod 644 ~/.ssh/authorized_keys
经过以上步骤,我们的无密码访问就配置好了,可以通过如下命令进行验证:
[root@localhost] ssh 3
[  root@3] exit
[root@localhost] ssh 4
[root@ 4] exit
第四步:配置 Hadoop相关文件
对$HADOOP_HOME/src 文件下的 core-site.xml,hdfs-site.xml, 
                 原创力文档
原创力文档 
                        

文档评论(0)