常见的InputFormat派生类.PPTVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
常见的InputFormat派生类

陈 辉 2016年4月 -- InputFormat MapReduce工作流程 1、MapReduce流程图 Split-1 Split-2 Split-3 Split-n Recorder-1 Recorder-2 Recorder-3 Recorder-1 Recorder-2 Recorder-3 InputFormat OutputFormat MapReduce工作流程 Hadoop中的Map Reduce框架依赖InputFormat提供数据,依赖OutputFormat输出数据,每一个Map Reduce程序都离不开它们。 Map在处理文件之前,InputFormat接口的getSplits方法会将文件划分切割成为若干个可序列化的split。 一般大多数的split与HDFS中的block大小相同,都为64M,这样做的好处是使得Map可以在存储有当前数据的节点上运行本地的任务,而不需要通过网络进行跨节点的任务调度。 MapReduce工作流程 如果一个split大于一个block的时候,那么部分数据很可能存储在别的节点上,处理的时候必然会通过网络跨节点数据传输,则Map无疑是增加了等待时间从而降低了Map处理效率。 如果一个split小于block的时候,那么会对当前节点block容量的浪费,同时是增加了split的个数,Map对split进行计算并且上报结果,关闭当前计算打开新的split均需要耗费资源,这样也降低了Map处理效率。 MapReduce工作流程 一个大文件一般要划分为若干个split,因此,处理一个split的时间远远小于处理整个文件的时间。 根据木桶效应,整个Map处理的速度则是由群集中所有运行map节点的最慢的那个节点决定。 如果将splits分成较为细粒度的数据大小,而同时对不同的节点计算机根据其速度分配splits个数,可以获得更好的负载均衡。 InputFormat主要功能 InputFormat主要用于描述输入数据的格式,它提供以下两个功能 数据切分:按照某个规则策略将输入的数据切分成若干个split,以便确定Map Task的个数以及对应的split 为Mapper提供输入数据:给定某个split,能将其解析成一个个的key/value对 InputFormat主要功能 inputFormat包含两个方法 InputSplit[] getSplits(JobConf job,int numSplits) throws IOException RecordReaderk,v getRecordReader(InputSplit split,JobConf job,Reporter reporter) throws IOException; InputFormat主要功能 getSplits主要完成数据的切分功能,它将输入的数据切分成numSplits个inputSplit。inputSplit有两个特点 逻辑切分:它在逻辑上切分输入数据,但不会在磁盘上将其切分存储,InputSplit只记录切分之后分片的元数据信息,比如起始位置长度以及所在节点列表等 可序列化:作业提交到JobTracker之前,Client会调用InputFormat中的getSplits方法,得到InputSplit并将其序列化到文件中。当JobTracker对提交上来的作业初始化的时候可以直接读取该文件,然后解析所有的InputSplit并且创建MapTask InputFormat主要功能 getRecordReader方法返回一个RecordReader对象,该对象将输入的InputSplit解析成若干个key/value对; MapReduce框架在Map Task执行过程中,会不断地调用RecordReader对象中的方法,迭代获取key/value对并交给map函数处理。 InputFormat类层次结构图 Hadoop提供了一系列InputFormat方便开发。 TextInputFormat? 作为默认的文件输入格式,用于读取纯文本文件,文件被分为一系列以LF或者CR结束的行,key是每一行的位置偏移量,是LongWritable类型的,value是每一行的内容,为Text类型。 基类FileInputFormat 基类FileInputFormat最重要的功能是为各种InputFormat提供统一的getSplits函数。该函数实现中最核心的两个算法是文件切分算法和host选择算法。 (1)文件切分算法 (2)host选择算法 基类FileInputFormat (1)文件切分算法 文件切分算法主要用于确定InputSplit的个数以及每个Input

文档评论(0)

laolao123 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档