云计算技术实验课第一阶段实验考核(new).docxVIP

云计算技术实验课第一阶段实验考核(new).docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
《云计算技术实验课》第一阶段实验考核 总体安排(注意问答考核环节,537分前后门进,按学号顺序,每次每个班两个人,一人等候): 12级计算机1-2班 8:00-8:40 上机考核,地点538 12级计算机3-4班 8:40-9:20 上机考核,地点538 12级计算机5-6班 9:20-10:00 上机考核,地点538 12级计算机5班 8:00-9:00 问答考核,地点537(前门) 12级计算机6班 8:00-9:00 问答考核,地点537 (后门) 12级计算机1班 9:00-10:00 问答考核,地点537(前门) 12级计算机2班9:00-10:00 问答考核,地点537 (后门) 12级计算机3班 10:00-11:00 问答考核,地点537 (前门) 12级计算机4班10:00-11:00 问答考核,地点537 (后门) 备注:问答环节比较耗时间,估计没办法提前,上机考核提前完成的同学就在走廊或者532等候。 第一部分:上机配置和运行程序(四选一的各自的选择的程序)(占总评40分) 要求:40分钟内运行成功,可以看到正确结果。 地点:538 注意:已经帮大家把以下两个步骤做好并克隆到每台机: 已经复制Java文件夹到C盘根目录 Hadoop文件已经解压到 C:/cygwin/home/用户名 目录下 第二部分:共8道候选题目,分两类,一和二各抽1道。(占总评20分) 时间:每人约2分钟 题目: 一、配置(4道抽1道) 1、为什么主机要发送自己的密钥到集群的机子上面? 答:为了实现基于ssh协议的集群传送文件无需密码,因为hadoop集群运行的时候会涉及到大量的文件传输。 2如何检查Namenode是否正常运行?以及如何重启Namenode? 答:用jps可以检查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工作。 执行bin/stop-all.sh命令和bin/start-all.sh命令,可重启Namenode。 3、namenode格式化两次以上可能会出现什么问题?为什么? 答:可能导致datanode启动不成功。原因:由于namenode namespaceID 和datanode namespaceID 不一致造成原因。 4、多机模式下,如何查看系统状态和HDFS系统 答:查看状态:在浏览器输入主机ip:50030,HDFS:主机ip:50070 二、MapReduce 数据流及代码理解 要求:根据给出的各自选择的程序(四选一)的流程图中指定的key, value,在相应代码(不带注释)中指出产生该key, value的代码部分,并做简要说明 [参考例子]单词计数例子中Map和Reduce过程的数据流,以及相应代码注释(产生数据流中各key, value的对应代码) 输入输出: 数据流中的各key, value: 数据流中各key, value(简称k,v)的对应代码: pack package org.apache.hadoop.examples; import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.util.GenericOptionsParser; import org.apache.log4j.Logger; /** * * 描述:WordCount explains by York * @author Hadoop Dev Group */ public class WordCount { /** * 建立Mapper类TokenizerMapper继承自泛型类Mapper * Mapp

文档评论(0)

donglian + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档