Windows 下配置 Eclipse 连接 Hadoop 开发环境.docVIP

Windows 下配置 Eclipse 连接 Hadoop 开发环境.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Windows 下配置 Eclipse 连接 Hadoop 开发环境

Windows 下配置 Eclipse 连接 Hadoop 开发环境 学习本篇之前,首先需要搭建Hadoop集群环境,具体请参见:Hadoop 三台主机 集群搭建 详解 在上一篇Hadoop 三台主机 集群搭建 详解,已经搭建起Hadoop集群,但是要开发调试MapReduce程序,还是在Windows下比较方便和舒服。成功配置这个环境,花费了我好几个晚上,先记录如下,方便后来学习的人: 环境及配置: Eclipse选择 非常重要,至少我是在这花费了很多时间,几乎试遍了所有的eclipse版本,都不成功,最后选择了SpringSource Tool,真的很好用,下载地址:/downloads/sts Cygwin hadoop是基于Linux平台的,如其启动,关闭 配置需要在Linux命令行中执行,cygwin是用来模拟Linux下的命令行工具。安装地址:/install.html Hadoop Eclipse插件 不建议使用Hadoop自带的,不好用,如果使用SpringSource Tool的话,请使用hadoop-eclipse-plugin-0.20.3-SNAPSHOT,下载地址:/jira/browse/MAPREDUCE-1280 预先配置 1. 安装Cygwin,这个只要一路确定就行了,不过中间千万别停顿。 2. 配置Windows Hosts文件,为了DNS解析寻址用 方法:进入C:\Windows\System32\drivers\etc,找到hosts文件,编辑添加hadoop集群配置的hosts文件相关信息如下:     master     slave1#非必须#     slave2#非必须# 安装配置: ① 解压下载的SpringSource Tool到D:\\STS,将hadoop-eclipse-plugin-0.20.3-SNAPSHOT放到:D:\STS\sts-2.9.1.RELEASE\plugins ② 点击STS.exe,启动SpringSource Tool(一下简称Eclipse),如果在Project Explorer中出现DFS Locations图标,则说明安装正确,如图: ③ 之后,点击Windows--Preferrence--hadoop map/reduce, Brower 选择下载的hadoop-0.20.2所在的路径: ④ 配置相关参数,点击 Windows--Show View --Other -- Map/Reduce Location,打开Hadoop的MapReduce View 点击Ok之后,出现如下图 ⑤ 上一步你不应该看到hadoopLoc, 应该什么都没有,右键点击空白处--New Hadoop Location, 你会看到一个填写MapReduce Location参数的一个界面: 其中: Location Name: 这个不用在意,就是对这个MapReduce的标示,只要能帮你记忆即可 Map/Reduce Master 部分相关定义: Host:上一节搭建的集群中JobTracker所在的机器的IP地址 port:JobTracker的端口 两个参数就是 mapred-site.xml中mapred.job.tracker的ip和端口 DFS Master部分: Host:就是上一节集群搭建中Namenode所在机器IP Port:就是namenode的端口 这两个参数是在 core-site.xml里里面的ip和端口 User Name: 就是搭建Hadoop集群是所用的用户名,我这里用的是root ⑥ 填写完以上信息以后,关闭Eclipse,然后重新启动。 为什么这么做呢?因为如果不重新启动,Advanced Parameters里,有些重要的选项不能显示,重启后,来配制Advanced Parameters信息: 可看到大部分选项都已经预设值好了,其中有一下几个选项,必须注意填写,其他的选项,要么默认,要么会根据我们填写的以下几个选项自动修改: dfs.replication: 这个这里默认是3,但是要根据你的Datanode的个数来定,如果你仅有2个datanode,那么就写2,如果只有一个,就写1,大于或者等于3个,写3 hadoop.tmp.dir: 这个要跟上节建立的Hadoop集群配置中core-site.xml 中的hadoop.tmp.dir设置一样,上节填写的是/tmp/hadoop-root,这里也如是填写 hadoop.job.ugi: 填成root,Tardis,其中root是我们的用户名,后边的,Tardis一定要这么写,不能改 这些都填写完了之后,点击保存,重新启动Eclipse,会发现,很多Advance

文档评论(0)

shenlan118 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档