Hadoop速入门.docx

  1. 1、本文档共147页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Hadoop速入门

Hadoop快速入门目的这篇文档的目的是帮助你快速完成单机上的Hadoop安装与使用以便你对/docs/r1.0.4/cn/hdfs_design.htmlHadoop分布式文件系统(HDFS)和Map-Reduce框架有所体会,比如在HDFS上运行示例程序或简单作业等。先决条件支持平台GNU/Linux是产品开发和运行的平台。 Hadoop已在有2000个节点的GNU/Linux主机组成的集群系统上得到验证。 Win32平台是作为开发平台支持的。由于分布式操作尚未在Win32平台上充分测试,所以还不作为一个生产平台被支持。 所需软件Linux和Windows所需软件包括:JavaTM1.5.x,必须安装,建议选择Sun公司发行的Java版本。 ssh 必须安装并且保证 sshd一直运行,以便用Hadoop 脚本管理远端Hadoop守护进程。 Windows下的附加软件需求/Cygwin - 提供上述软件之外的shell支持。 安装软件如果你的集群尚未安装所需软件,你得首先安装它们。以Ubuntu Linux为例:$ sudo apt-get install ssh$ sudo apt-get install rsync在Windows平台上,如果安装cygwin时未安装全部所需软件,则需启动cyqwin安装管理器安装如下软件包:openssh - Net 类下载为了获取Hadoop的发行版,从Apache的某个镜像服务器上下载最近的 /core/releases.html稳定发行版。运行Hadoop集群的准备工作解压所下载的Hadoop发行版。编辑 conf/hadoop-env.sh文件,至少需要将JAVA_HOME设置为Java安装根路径。 尝试如下命令:$ bin/hadoop将会显示hadoop 脚本的使用文档。 现在你可以用以下三种支持的模式中的一种启动Hadoop集群: 单机模式伪分布式模式完全分布式模式单机模式的操作方法默认情况下,Hadoop被配置成以非分布式模式运行的一个独立Java进程。这对调试非常有帮助。下面的实例将已解压的 conf 目录拷贝作为输入,查找并显示匹配给定正则表达式的条目。输出写入到指定的output目录。 $ mkdir input$ cp conf/*.xml input$ bin/hadoop jar hadoop-*-examples.jar grep input output dfs[a-z.]+ $ cat output/*伪分布式模式的操作方法Hadoop可以在单节点上以所谓的伪分布式模式运行,此时每一个Hadoop守护进程都作为一个独立的Java进程运行。配置使用如下的 conf/hadoop-site.xml:configurationpropertyname/namevaluelocalhost:9000/value/propertypropertynamemapred.job.tracker/namevaluelocalhost:9001/value/propertypropertynamedfs.replication/namevalue1/value/property/configuration免密码ssh设置现在确认能否不输入口令就用ssh登录localhost:$ ssh localhost如果不输入口令就无法用ssh登陆localhost,执行下面的命令:$ ssh-keygen -t dsa -P -f ~/.ssh/id_dsa$ cat ~/.ssh/id_dsa.pub ~/.ssh/authorized_keys执行格式化一个新的分布式文件系统:$ bin/hadoop namenode -format启动Hadoop守护进程:$ bin/start-all.shHadoop守护进程的日志写入到 ${HADOOP_LOG_DIR} 目录 (默认是 ${HADOOP_HOME}/logs).浏览NameNode和JobTracker的网络接口,它们的地址默认为:NameNode - http://localhost:50070/http://localhost:50070/JobTracker - http://localhost:50030/http://localhost:50030/将输入文件拷贝到分布式文件系统:$ bin/hadoop fs -put conf input运行发行版提供的示例程序:$ bin/hadoop jar hadoop-*-examples.jar grep input output dfs[a-z.]+ 查看输出文件:将输出文件从分布式文件系统拷贝到本地文件系统查看:$ bin/hadoop fs -get

文档评论(0)

173****7830 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档