hadoop分布式集群搭建.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
hadoop分布式集群搭建

Hadoop分布式集群搭建 ? 简介: Hadoop是Apache开源组织的一个并行分布式计算开源框架,借助hadoop框架程序员很容易的实现大规模计算机并行分布式计算。hadoop主要包含MapReduce和HDFS, MapReduce是基于Google MapReduce论文的开源java实现, map就是将任务分解,然后交给大规模计算机集群去运算,reduce负责合并计算结果。 HDFS: 基于google GFS分布式文件系统论文的开源实现,是hadoop底层存储组件。 环境: RedHat as 5 配置机器: ?? namenode:14, 机器名: mika ?? datanode: 15????? 机器名: c1 配置JDK ? ????? 下载linux jdk安装包: /otn-pub/java/jdk/6u25-b06/jdk-6u25-linux-i586.bin , ???? 提升bin权限:?$ sudo chmod +x jdk-6u25-linux-i586.bin ????? 安装bin文件????$ ./jdk-6u25-linux-i586.bin,?确认后安装即可。 ?????? 设置java运行环境变量,? 我的jdk安装在opt下 $ sudo vi /etc/profile 添加下面的设置: ?JAVA_HOME=/opt/jdk1.6.0_25 PATH=$JAVA_HOME/bin:$PATH CALSSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JAVA_HOME export PATH export CALSSPATH 修改保存,然后输入source /etc/profile 激活修改后的java环境变量。 2. 修改hosts文件 ???? name节点,可以通过机器名访问data节点, 添加如下内容: ????????? 14??mika ?????????? 15 c1 ???? data节点,c1添加如下内容: ????????? 14??mika ?????????? 15 c1 3. ?设置ssh实现免密码登录 ? redhat 默认是安装ssh的, 如果没有请先安装ssh服务。 ?? 在name节点? 生成ssh key, ?? $ ssh-keygen -t dsa -P -f ~/.ssh/id_dsa??? 生成密钥对, ?? $ cat ~/.ssh/id_dsa.pub ~/.ssh/authorized_keys? 复杂公钥到authorized_keys文件 ?? scp命令将公钥拷贝到c1数据节点: ?? $ scp? ~/.ssh/authorized_keys c1:/~/.ssh ?? 测试name节点无密码登录c1机器: ssh c1, 出现欢迎登录,配置成功。 4.? 配置hadoop ??? 下载最新hadoop最新稳定发行版:?/dyn/closer.cgi/hadoop/common/ , 解压后修改conf/hadoop-env.sh内的JAVA_HOME,修改为/opt/opt/jdk1.6.0_25 输入命令 bin/hadoop 出现命令使用说明 接下来配置完全分布式集群,所有机器的hadoop安装路径相同: 修改core-site.xml文件: XML语言 : ?xml-stylesheet type=text/xsl href=configuration.xsl? configuration ? property ??? name /name ??? value hdfs://mika:9000 /value ? /property property ??? name hadoop.tmp.dir /name ??? value /opt/hadoop/tmp /value /property /configuration ? ? 注意: 需要更改hadoop.tmp.dir默认的指向, 默认指向tmp目录下, 有可能会出现其他问,有时候会出现发现不了datanode的问题。 ?修改hdfs-site.xml 文件: XML语言 : ?xml version=”1.0″? ?xml-stylesheet type=”text/xsl” href=”configuration.xsl”? configuration ? property ??? name dfs.replication /name ??? value 1 /value ? /property /configurat

文档评论(0)

xcs88858 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:8130065136000003

1亿VIP精品文档

相关文档