网站大量收购独家精品文档,联系QQ:2885784924

Hadoop2.2.0+Hbase0.98.1+Sqoop1.4.4+Hive0.13完全安装手册.docx

Hadoop2.2.0+Hbase0.98.1+Sqoop1.4.4+Hive0.13完全安装手册.docx

  1. 1、本文档共18页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Hadoop2.2.0Hbase0.98.1Sqoop1.4.4Hive0.13完全安装手册

Hadoop2.2.0+Hbase0.98.1+Sqoop1.4.4+Hive0.13完全安装手册文档时间2014/7/04各软件版本Hadoop2.2.0Hbase0.98.1Sqoop1.4.4Hive0.13前言:3一. Hadoop安装(伪分布式)41. 操作系统42. 安装JDK41 下载并解压JDK42 配置环境变量43 检测JDK环境43. 安装SSH51 检验ssh是否已经安装52 安装ssh53 配置ssh免密码登录54. 安装Hadoop61 下载并解压62 配置环境变量63 配置Hadoop64 启动并验证8前言:网络上充斥着大量Hadoop1的教程,版本老旧,Hadoop2的中文资料相对较少,本教程的宗旨在于从Hadoop2出发,结合作者在实际工作中的经验,提供一套最新版本的Hadoop2相关教程。为什么是Hadoop2.2.0,而不是Hadoop2.4.0本文写作时,Hadoop的最新版本已经是2.4.0,但是最新版本的Hbase0.98.1仅支持到Hadoop2.2.0,且Hadoop2.2.0已经相对稳定,所以我们依然采用2.2.0版本。一. Hadoop安装(伪分布式)1. 操作系统Hadoop一定要运行在Linux系统环境下,网上有windows下模拟linux环境部署的教程,放弃这个吧,莫名其妙的问题多如牛毛。2. 安装JDK1 下载并解压JDK我的目录为:/home/apple/jdk1.82 配置环境变量打开/etc/profile,添加以下内容:export JAVA_HOME=/home/apple/jdk1.8export PATH=$PATH:$JAVA_HOME/binexport CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar执行source /etc/profile,使更改后的profile生效。执行以下命令,赋予JDK运行的权限:chmod 777 /home/apple/jdk1.8/bin/*chmod 777 /home/apple/jdk1.8/lib/*3 检测JDK环境执行 java –version ,查看结果,如出现如下提示,则说明JDK已成功配置:3. 安装SSH1 检验ssh是否已经安装Ubuntu系统可以通过如下命令来查看ssh是否已经安装:netstat -an| grep 22如果已安装,可跳过第二步。2 安装sshUbuntu系统可以通过如下命令来安装ssh:sudo?apt-get?install?ssh3 配置ssh免密码登录通过如下命令来配置ssh免密码登录:ssh-keygen?-t?dsa?-P??-f?~/.ssh/id_dsacat?~/.ssh/id_dsa.pub??~/.ssh/authorized_keys输入如下命令验证免密码登录是否成功:ssh localhost如出现如下界面,则表示登录成功:4. 安装Hadoop1 下载并解压我的目录为:/home/apple/hadoop-2.2.02 配置环境变量打开/etc/profile,添加以下内容:export HADOOP_HOME=/home/apple/hadoop-2.2.0export HADOOP_MAPRED_HOME=$HADOOP_HOMEexport HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOMEexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport HADOOP_OPTS=-Djava.library.path=$HADOOP_HOME/lib/nativeexport YARN_HOME=$HADOOP_HOMEexport PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin执行source /etc/profile,使更改后的profile生效。执行以下命令,赋予Hadoop运行的权限:chmod 777 /home/apple/hadoop-2.2.0/bin/*chmod 777 /home/apple/hadoop-2.2.0/sbin/*3 配置Hadoop修改$HADOOP_HOME/etc/hadoop目录下的配置文件。core-site.xml添加以下内容:property namefs.default.name/name valuehdfs://localhost:9000/value /

文档评论(0)

yan698698 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档