Hadoop+base+Hive整合安装手册.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
HadoopbaseHive整合安装手册

Hadoop+Hbase+Hive整合安装手册 ------------------------Hadoop安装手册---------------- (一).首先是hadoop的下载和安装 hadoop 2.7.0现在是apache官网上的最新stable版本,你可以从:/apache/hadoop/common/stable/来下载hadoop-2.7.0.tar.gz 包。 因为官网上下载的Hadoop为32位,在Linux x64上运行会有问题,因此建议下载源码自己编译或下载别人编译好的。我使用的是别人下载好的。 (二).Linux环境准备及,将tar包传到Linux系统上解压缩 具体的有以下几步: 1.安装jdk,并设置好JAVA_HOME ,我的环境是 export JAVA_HOME=/usr/lib/jdk1.7.0_79 2.设置主机名,一般来说hadoop集群都是多台机器的,得给他们安不同的名字以示区分 ,通过vi /etc/sysconfig/network设置hostname。 本例中我以master.hdfs为主机,也就是HDFS中的nameNode,HBase中的HMaster。 slave1.hdfs, slave2.hdfs为数据节点,是HDFS中的dataNode和HBase中的regionServer和zookeeper.quorum。 master: [hadoop@master ~]$ vi /etc/sysconfig/network NETWORKING=yes HOSTNAME=master.hdfs slave1: NETWORKING=yes HOSTNAME=slave1.hdfs slave2: NETWORKING=yes HOSTNAME=slave1.hdfs 3.设置ip和hostname的映射关系,如果你还有其他的ip,也一并设置,通过 vi /etc/hosts. Master: [hadoop@master ~]$ more /etc/hosts localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 00 master.hdfs 01 slave1.hdfs 02 slave2.hdfs Slave1: [hadoop@slave1 ~]$ more /etc/hosts localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 00 master.hdfs 01 slave1.hdfs 02 slave2.hdfs Slave2: [hadoop@slave2 ~]$ more /etc/hosts localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 00 master.hdfs 01 slave1.hdfs 02 slave2.hdfs [hadoop@slave2 ~]$ 4.关闭防火墙,如果你要配置的是多个主机集群环境,那么必须将所有主机的防火墙关闭,否则有可能出现如HDFS中的dataNode无法心跳和NameNode同步的情况。 (关闭防火墙,应该注意防火墙关闭是有级别,设置完毕后,查看一下防火墙状态) [root@master ~]# service iptables status iptables:未运行防火墙。 [root@master ~]# 5.创建专门的用户,一般来说,我们不会直接用root来启停hadoop应用,如果是集群环境,建议统一设置的相同的环境变量和专门的用户,这样就不用在集群将同步的时候还考虑不同的环境变量路径问题,比如我们创建hadoop用户。 先创建组:groupadd hadoop, 然后创建用户:useradd -g hadoop hadoop, 然后修改hadoop用户的密码:passwd hadoop 6.设置主机到其他机器的无密码ssh,hadoop会通过s

文档评论(0)

书是爱的奉献 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档