- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Ch5-Hadoop系统安装运行与程序开发
程序开发与提交作业基本过程 集群分布方式下远程提交作业 1. 本地完成程序编写和调试 在自己本地安装了单机或伪分布Hadoop系统的机器上,完成程序编写和调试 2.创建用户账户 为了能访问Hadoop集群提交作业,需要为每个程序用户创建一个账户,获取用户名、密码等信息。 集群分布方式下远程提交作业 3.将数据和程序传送到Hadoop集群 准备好数据和程序目录 例如: me@local:~/workspace$ ls -R wordcount wordcount: wordcount.jar wordcount/files: file01.txt file02.txt 用scp命令传送至Hadoop平台主机上: me@local:~/workspace$ scp -r wordcount username@Master :workspace/wordcount username@ Master‘s password: [在此输入您的密码] 集群分布方式下远程提交作业 4.用SSH命令远程登录到Hadoop集群 me@local:~/workspace$ ssh username@Master username@Masters password: [在此输入您的密码] 5.将数据复制到HDFS中 进入到程序包所在目录: username@Master:~$ cd workspace/wordcount username@Master:~/workspace/wordcount$ ls files wordcount.jar ? 用hadoop dfs –put命令将数据从Linux文件系统中复制到HDFS: username@Master:~/workspace/wordcount$ hadoop dfs -put files test-in 集群分布方式下远程提交作业 6.用hadoop jar命令向Hadoop提交计算作业 username@Master:~/workspace/wordcount$ hadoop jar wordcount.jar test-in test-out 这里的test-in为被统计的文本文件的目录,test-out为指定的输出结果的目录,注意test-out目录事先不能存在,若存在需要先删除。 集群分布方式下远程提交作业 7. 查看运行结果 查看test-out目录,统计结果被输出到文件test-out/part-r-00000中 username@Master:~/workspace/wordcount$ hadoop dfs -ls test-out Found 2 items drwxr-xr-x - hadoopusr supergroup 0 2010-05-23 20:29 /user/hadoopusr/test-out/_logs -rw-r--r-- 1 hadoopusr supergroup 35 2010-05-23 20:30 /user/hadoopusr/test-out/part-r-00000 ?查看计算结果 username@Master:~/workspace/wordcount$ hadoop dfs -cat test-out/part-r-00000 GoodBye 1 Hadoop 2 Hello 2 World 1 ? 也可以把文件从HDFS中复制到Linux文件系统中查看 username@Master:~/workspace/wordcount$ hadoop dfs -get test-out/part-r-00000 test-out.txt username@Master:~/workspace/wordcount$ vi test-out.txt GoodBye 1 Hadoop 2 Hello 2 World 1 集群分布方式下远程提交作业 8. 用Hadoop的Web界面查看Hadoop集群和作业状态 在浏览器中打开http:// NameNode节点IP:50070/. 可看到集群的基本信息 集群分布方式下远程提交作业 8. 用Hadoop的Web界面查看Hadoop集群和作业状态 打开页面中的Namenode Logs链
文档评论(0)