Hadoop平台搭及实例运行 (自测版).docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Hadoop平台搭及实例运行 (自测版)

Hadoop平台搭建及实例运行 本文搭建hadoop平台的硬件环境是虚拟机上安装2个ubuntu系统,具体信息如下: 表1.平台硬件环境 名字 操作系统 IP地址 内存 ubuntu2 Ubuntu 8.04 192.168.28.130 20G ubuntu3 Ubuntu 8.04 192.168.28.131 20G 注:本文中红色部分表示在终端输入的关键命令。 一、平台搭建 1.安装必需软件 (1)安装java $ sudo apt-get install SUN-java5-jdk 系统会自动分析软件的依赖关系,并推荐安装下列相关软件: java-common odbcinst1debian1 sun-java5-bin sun-java5-demo sun-java5-jdk sun-java5-jre unixodbc 安装过程中需要回答是否同意使用协议,此时按tab键至OK,再按回车即可正常安装。 安装完这三个之后还需要写入系统变量: $ sudo vi /etc/environment 写入下面两行内容: CLASSPATH=.:/usr/lib/jvm/java-1.5.0-sun/lib JAVA_HOME=/usr/lib/jvm/java-1.5.0-sun 还要将系统虚拟机的优先顺序也调整一下: $ sudo vi /etc/jvm 将下面一句写在最顶部: /usr/lib/jvm/java-1.5.0-sun 测试 接下来在终端中输入命令: $java -version 终端如果返回以下信息: 图1-1.Java版本信息 则说明java已经安装好了。 (2)安装其它软件 $ sudo apt-get install ssh $ sudo apt-get install rsync 注:在每个节点上都要执行以上相同的过程。 2.系统配置 (1)修改主机名 root@ubuntu3:/hadoop$ sudo vi /etc/hostname 把新的主机名写入hostname即可,这里我写入: ubuntu3 (2)修改hosts文件 root@ubuntu3:/hadoop$ sudo vi /etc/hosts 将以下内容添加到该文件中: 127.0.1.1 ubuntu3 192.168.28.130 ubuntu2 192.168.28.131 ubuntu3 注:把第一行的127.0.0.1 localhost用#注掉 配置ssh Hadoop启动以后,Namenode通过SSH来启动和停止各个节点上的各种守护进程,需要在节点之间执行指令的时候是不输入密码,所以需要用无密码公钥认证的方式配置SSH。本实验中以ubuntu3为主节点namenode,它要通过SSH连接到datanode节点(ubuntu2)。对于SSH服务来说,namenode是客户端,datanode是服务端。 生成密钥对 root@ubuntu3:~/.ssh$ ssh-keygen -t rsa #该命令在ubuntu3上生成一个私钥和一个公钥。公钥放到服务端(datanode)去,私钥留在客户端(namenode)。 将公钥写入authorized_keys文件中,这里还没有这个文件所以直接复制过去。 root@ubuntu3:~/.ssh$ cp id_rsa.pub authorized_keys 将uthorized_keys文件网络复制到所有datanode的上相同目录下面。 root@ubuntu3:~/.ssh$ scp authorized_keys ubuntu2:/root/.ssh/ 测试ssh root@ubuntu3:~/.ssh$ ssh ubuntu3 图1-2.ssh测试 该图说明ssh已经正确配置好了,不需要输入密码。 尝试在namenode登陆datanode: root@ubuntu3:~/.ssh$ ssh ubuntu2 (4)建立namenode存储目录及数据目录 ptz@ubuntu3:/hadoop$ sudo mkdir name ptz@ubuntu3:/hadoop$ sudo mkdir data (5)目录结构 Hadoop要求所有结点上Hadoop的目录结构要相同,并且都有一个相同的用户名的帐户。Hadoop源码存放的目录:usr/local/hadoop 3.hadoop配置 直接将下载好的源码包复制到/usr/local下解压并将文件名改为hadoop $ sudo tar zxvf hadoop-0.17.2.1.tar.gz $ mv hadoop-0.17.2.1 hado

文档评论(0)

mi80868668 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档