基于Hadoop的海量车牌图像处理优化技术.PDFVIP

基于Hadoop的海量车牌图像处理优化技术.PDF

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于Hadoop的海量车牌图像处理优化技术.PDF

第28卷 第10期 计 算机 技 术 与发 展 Vol.28 No.10 2018年10月 COMPUTERTECHNOLOGY AND DEVELOPMENT Oct. 2018 基于Hadoop 的海量车牌图像处理优化技术 侯向宁 (成都理工大学工程技术学院,四川 乐山 614007) 摘 要:Hadoop集群下每个小文件均占据一个 Block,一方面存储海量元数据信息消耗了大量的NameNode 内存,另一方 面,Hadoop为每个小文件单独启动一个Map任务,大量的时间花费在启动和关闭Map任务上,从而严重降低了MapReduce的 执行速率。 对此,在详细分析已有解决方案的基础上,采用CFIF将多个小文件分片打包到大分片中,给每个大分片只启动 一个Map任务来执行,通过减少启动Map任务的数量,提高了处理海量小文件时的效率。 通过设计Hadoop 图像接口类, 继承并实现CFIF抽象类,最终完成了对海量图像小文件的处理。 与常规HDFS、HAR和MapFile方案在NameNode 内存空 间和运行效率方面进行了对比,结果表明,CFIF在NameNode 内存占用率和运行效率方面,都有很好的表现。 关键词:海量小文件;Hadoop分布式文件系统;分片;打包 中图分类号:TP391 文献标识码:A 文章编号:1673-629X(2018)10-0135-04 doi:10.3969/j.issn.1673-629X.2018.10.028 A Processing Optimization Technique for Massive License Plate Images Based on Hadoop HOU Xiang-ning (Engineering Technical College of Chengdu University of Technology,Leshan614007,China) Abstract:Under the Hadoop cluster,each small file occupiesablock. On the onehand,to storemassivemetadatainformation consumes a lot of NameNode memory;on the other hand,Hadoop startsa Map task for each small file,spending a lot of time on startup and shut- down Map tasks,which severelyreducestheexecution speedoftheMapReduce. Inviewofthis,onthebasisofanalysisof severalexist- ing solutions,we use CFIF abstract classto package multiple small filesinto a big split,for each big split only start a Map task to per- form. By reducing the number of Map tasks,we improve the efficiency when dealing with massive small files. Through designing the Hadoop image interface class,we inherit and implement CFIF abstract class for final completion of the processing of large image small

文档评论(0)

shiyouguizi + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档