- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
HadoopbaseHive整合安装手册
Hadoop+Hbase+Hive整合安装手册
------------------------Hadoop安装手册----------------
(一).首先是hadoop的下载和安装
hadoop 2.7.0现在是apache官网上的最新stable版本,你可以从:/apache/hadoop/common/stable/来下载hadoop-2.7.0.tar.gz 包。
因为官网上下载的Hadoop为32位,在Linux x64上运行会有问题,因此建议下载源码自己编译或下载别人编译好的。我使用的是别人下载好的。
(二).Linux环境准备及,将tar包传到Linux系统上解压缩
具体的有以下几步:
1.安装jdk,并设置好JAVA_HOME ,我的环境是
export JAVA_HOME=/usr/lib/jdk1.7.0_79
2.设置主机名,一般来说hadoop集群都是多台机器的,得给他们安不同的名字以示区分 ,通过vi /etc/sysconfig/network设置hostname。
本例中我以master.hdfs为主机,也就是HDFS中的nameNode,HBase中的HMaster。
slave1.hdfs, slave2.hdfs为数据节点,是HDFS中的dataNode和HBase中的regionServer和zookeeper.quorum。
master:
[hadoop@master ~]$ vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=master.hdfs
slave1:
NETWORKING=yes
HOSTNAME=slave1.hdfs
slave2:
NETWORKING=yes
HOSTNAME=slave1.hdfs
3.设置ip和hostname的映射关系,如果你还有其他的ip,也一并设置,通过 vi /etc/hosts.
Master:
[hadoop@master ~]$ more /etc/hosts
localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
00 master.hdfs
01 slave1.hdfs
02 slave2.hdfs
Slave1:
[hadoop@slave1 ~]$ more /etc/hosts
localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
00 master.hdfs
01 slave1.hdfs
02 slave2.hdfs
Slave2:
[hadoop@slave2 ~]$ more /etc/hosts
localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
00 master.hdfs
01 slave1.hdfs
02 slave2.hdfs
[hadoop@slave2 ~]$
4.关闭防火墙,如果你要配置的是多个主机集群环境,那么必须将所有主机的防火墙关闭,否则有可能出现如HDFS中的dataNode无法心跳和NameNode同步的情况。
(关闭防火墙,应该注意防火墙关闭是有级别,设置完毕后,查看一下防火墙状态)
[root@master ~]# service iptables status
iptables:未运行防火墙。
[root@master ~]#
5.创建专门的用户,一般来说,我们不会直接用root来启停hadoop应用,如果是集群环境,建议统一设置的相同的环境变量和专门的用户,这样就不用在集群将同步的时候还考虑不同的环境变量路径问题,比如我们创建hadoop用户。
先创建组:groupadd hadoop,
然后创建用户:useradd -g hadoop hadoop,
然后修改hadoop用户的密码:passwd hadoop
6.设置主机到其他机器的无密码ssh,hadoop会通过s
文档评论(0)