网站大量收购闲置独家精品文档,联系QQ:2885784924

hadoop的运行环境配置.pptVIP

  1. 1、本文档共17页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于Hadoop平台的并行编程实践 李东秀 内容介绍 熟悉hadoop配置环境 搭建实验 平台 编写 (矩阵相乘)运算的 map, reduce函数 在hadoop实验 平台上实现 配置计算环境: 1个Master、3个Slave的Hadoop集群 Apache软件基金会下的一个开源分布式计算平台 以Hadoop的HDFS和MapReduce为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构。 对于Hadoop的集群来讲,可以分成两大类角色:Master和Salve。 一个HDFS集群是由一个NameNode和若干个DataNode组成的。 MapReduce框架是由一个单独运行在主节点上的JobTracker和运行在每个集群从节点的TaskTracker共同组成的。 1.1 Hadoop简介 HDFS在MapReduce任务处理过程中提供了文件操作和存储等支持,MapReduce在HDFS的基础上实现了任务的分发、跟踪、执行等工作,并收集结果,二者相互作用,完成了Hadoop分布式集群的主要任务。 集群中包括4个节点:1个Master,3个Salve,节点IP地址分布如下: ???????localhost 20???ubuntu1 21???ubuntu2 22???ubuntu3 23???ubuntu4 1.2环境说明 1.3hadoop的主从节点结构分解 2.1在所有的机器上建立相同的用户 对每个系统进行系统名和ip地址的配置 必须在所有的机器上建立相同的用户,设置每个系统的ip地址。 2.2配置NameNode和DataNode 配置hosts文件 修改每台机器的/etc/hosts(包括namenode和datanode) ) ???????localhost 20???ubuntu1 21???ubuntu2 22???ubuntu3 23???ubuntu4 2环境说明和安装配置SSH 2 .2安装配置SSH 安装和启动SSH协议 yum install ssh 安装SSH协议 yum install rsync service sshd restart 启动服务 ?配置Master无密码登录所有Salve Hadoop运行过程中需要管理远端Hadoop守护进程,在Hadoop启动以后,NameNode是通过SSH来启动和停止各个DataNode上的各种守护进程的。 SSH安装配置 这就必须在节点之间执行指令的时候是不需要输入密码的形式,故我们需要配置SSH运用无密码公钥认证的形式,这样NameNode使用SSH无密码登录并启动DataName进程,同样原理,DataNode上也能使用SSH无密码登录到NameNode。 在用户目录下建立ssh的安装目录,之后设置权限 Master机器上生成无密码密码对,追加权限 注意:目录要设成700 有执行权限 authorized_keys要设成600 否则会出错 还有ssh 登陆要加入用户名的 SSH配置 用root用户登录服务器修改SSH配置文件/etc/ssh/sshd_config,无密码登录本级已经设置完毕,接下来的事儿是把公钥复制所有的Slave机器上 配置所有Slave无密码登录Master 和Master无密码登录所有Slave原理一样,就是把Slave的公钥追加到Master的.ssh文件夹下的authorized_keys中 这样就建立了Master和Slave之间的无密码验证相互登录 SSH配置 安装jdk1.6.45 环境变量配置 编辑/etc/profile文件,在后面添加Java的JAVA_HOME、CLASSPATH以及PATH内容。 export JAVA_HOME=/usr/java/jdk1.6.0_31 export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin 使配置生效 (重要) source /etc/profile 验证 Slave安装jdk: Master下的JDK复制到其他Slave的/home/hadoop/下面剩下的事儿就是在其余的Slave服务器上按照步骤安装JDK。 3 jdk安装配置 首先在namenode上配置,配置后在分发到datanode上 在“/usr/hadoop”下面创建tmp文件夹 安装 把/usr/hadoop读权限分配给hadoop用户 配置hadoop 配置hadoop-env.sh 使得能够找到java的路径 export HADOOP_HOME=/usr/had

文档评论(0)

smashing + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档