第6章-Hadoop安装和部署.ppt

  1. 1、本文档共23页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第6章 Hadoop安装和部署 * 6.1 Hadoop安装环境 在Windows下安装Hadoop 安装Cygwin(一个在Windows平台下模拟Linux环境的工具) 通过Cygwin安装Hadoop 在Mac OS操作系统下安装Hadoop 利用Mac OS下的Homebrew来自动下载安装Hadoop Homebrew是一种软件包管理器,类似于Ubuntu下的apt工具 Linux平台下安装Hadoop 都需要下载安装JDK和SSH * 6.2 Hadoop实验集群的部署结构 一个Hadoop集群由一个Master节点和多个Slave节点组成 从HDFS角度,Hadoop集群的节点分为两大类角色:NameNode和DataNode 从MapReduce角度,Hadoop集群的节点分为两大类角色:JobTracker和TaskTracker Master节点配置NameNode和JobTracker的角色 负责管理分布式数据和分解任务的执行 Salve节点配置DataNode和TaskTracker的角色 负责分布式数据存储以及任务的执行 * Hadoop部署结构 * 6.3 Hadoop安装部署 Hadoop的安装模式 单机模式 Hadoop默认的安装模式 运行在本地文件系统上,不与其它节点交互 不使用HDFS 也不加载任何Hadoop的守护进程 伪分布模式 在本地文件系统上运行,但它运行的是HDFS NameNode、DataNode、JobTracker和TaskTracker全部部署在一台机器上,在一台机器上模拟分布式部署 集群模式 运行在多台机器的HDFS上 * Hadoop伪分布式安装配置 * 1、设置静态IP地址 IP地址设置完成后,重启网卡: service network restart * 2、设置DNS解析 Hadoop 集群之间通过主机名互相访问,因此需要设置DNS解析 设置主机名:编辑配置文件“/etc/sysconfig/network” 设置节点IP与主机名的映射:编辑文件“/etc/hosts” 验证配置:执行“ping master”命令。 * 3、关闭防火墙 在linux下防火墙被称作“iptables”,使用命令查看服务iptables的状态,验证防火墙的关闭: service iptables status 如果命令执行后提示信息为“iptables:Firewall is not running”,说明防火墙已经被关闭。 * 4、设置SSH自动登录 Hadoop的进程之间使用SSH方式通信 设置SSH的免密码登录方式后,用户只在第一次登录时输入一次密码,以后都可以免密码直接登录 使用rsa加密方式生成密钥:ssh -keygen -t rsa 生成授权文件:进入密钥目录~/.ssh,执行命令生成授权文件(authorized_keys): cp id_rsa.pub authorized_keys 验证SSH无密码登录:ssh localhost * 5、安装JDK Hadoop的编译和MapReduce程序的运行都需要使用JDK 复制、解压JDK文件,重命名解压缩目录。 把jdk 的命令配置到环境变量中:配置文件“/etc/profile” export JAVA_HOME=/usr/local/jdk export PATH=.:$PATH:$JAVA_HOME/bin 使文件中的设置生效:source /etc/profile 验证安装是否成功:“java -version”命令 * 6、安装Hadoop 复制、解压Hadoop安装包。 重命名解压缩目录。 设置环境变量,配置文件“/etc/profile”: export HADOOP_HOME=/usr/local/hadoop export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH 使文件中的设置生效:source /etc/profile * 7、修改Hadoop配置文件 环境变量脚本文件hadoop-env.sh,设置jdk的安装位置 核心配置文件core-site.xml,Hadoop运行临时文件的主目录,设置HDFS的访问路径 HDFS配置文件hdfs-site.xml,设置文件块(Block)的存储副本个数 MapReduce配置文件mapred-site.xml,设置JobTracker的访问路径 * 8、使用Hadoop 对Hadoop进行格式化: hadoop namenode -format 启动Hadoop:start-all.sh。启动5个进程,分别是namenode、d

文档评论(0)

70后老哥 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档