基于层次特征车牌检测方法研究.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于层次特征车牌检测方法研究

基于层次特征车牌检测方法研究   摘要:近年来,深度卷积神经网络(DCNN)获得了较大的关注并被深入的研究。同时,一些基于卷积神经网络(CNN)的方法也被应用于车牌识别领域,并取得了较传统方法更好的表现。然而在实际应用中,大多数车牌识别系统只能适应单一场景,比如在公寓、学校门口的栏杆处设立的摄像头所使用的车牌识别算法,未必适用于高速公路场景。同时,固定在十字路口上方的摄像头,由于监视的区域路况较复杂,所拍摄的场景中,存在大量距离摄像头位置较远的小车牌,检测效果通常较差。而如果使用对于检测小车牌效果较好的模型,并不能很好地适用于公寓入口等位置。该文中,我们首先提出了一种基于CNN的车牌检测算法,结合不同层次特征图的预测,得出最终的车牌检测结果。该方法有利于检测不同大小尺寸的车牌,提高车牌检测算法的鲁棒性和通用性。我们的车牌检测方法在公开数据集OpenITS上的平均精度均值(mAP)达到了99.99%。   关键词:车牌检测; 卷积神经网络;层次特征   中图分类号:TP393 文献标识码:A 文章编号:1009-3044(2018)14-0188-03   1 引言   目前很多的车牌检测算法在实际应用中仍然存在着很多的挑战。当视频监控设备被固定在不同的高度和位置时,很多方法,甚至是一些最新的基于CNN的方法,都不能很好地检测大小不一致的车牌。尤其是距离视频监控设备较远的车牌,检出率会显著下降。为了克服这个缺陷,我们根据CNN较靠后的卷积层更利于检测尺寸较小的目标而较靠前的卷积层更适合检测尺寸较大的目标的特性,采用了一种结合不同层次特征图作为特征(即层级特征)的机制,应用于车牌检测。对于每一个被选取的特征层,都划分为若干个块,每个块都生成一系列不同尺寸和不同比例的预测框。车牌检测阶段的网络会针对每个预测框,给出是否是车牌的置信分数,并利用回归的方法,给出候选框的准确位置。由于不同层次的特征图分辨率不同,从而感受野也不同,因此不同尺寸的车牌都将被识别出来。   候选区域生成一直以来都是目标检测算法中最基础的一步。常见的方法包括:多尺度组合分组算法(MCG),滑动窗口算法和选择搜索算法(selective search)[1]。这些方法都是目标检测算法中的独立步骤,很多目标检测算法都采用了这种分段式的训练方法。Ren[2]等采用了候选区域生成网络(RPN)的方法,使得候选区域能够通过CNN生成,并且候选区域生成网络和目标检测网络的卷积计算可以共享,大大地减小了计算量并缩短了训练时间。Liu[3]则将候选区域生成网络和目标检测网络合并成为一个网络,真正实现了端到端(end-to-end)地完成目标检测任务。该方法比Ren的方法速度更快并且有更高的准确率,我们也将这一思想应用于车牌检测。实验结果表明,我们的方法能够以很高的准确率检测出任意尺寸的车牌。   2 基于层级特征的车牌检测实现细节   (1)网络结构   车牌检测的网络结构如图1所示。在[conv3_3]之前的部分是是类似于VGG-16[4]网络设计的,之后我们增加了几个卷积层,以提高检测精度。我们综合了[conv3_3]、[conv4_3]、[conv5_3]的预测框位置和置信度信息,利用非极大抑制算法(NMS)获得最终的车牌位置。相比而言,[conv3_3]的特征图上的像素感受野更小,也就是拥有更多的空间细节,因此适合检测较小的目标。同时,[conv5_3]的特征图上的像素感受野更大,适合检测较大的目标。   (2)候选区域生成   对[conv3_3]、[conv4_3]、[conv5_3]所获得的三个特征图划分成若干个块,并对特征图上的每个块生成一系列不同长宽比、不同大小的预测框。在我们的实验中,特征图上的块结合了6种预测框,选取的预测框尺寸和比例,更适合于车牌检测。设定高宽比为1:1、1:2和1:3三种比例,尺寸则根据不同层次的特征图而决定。这样,各种尺度的车牌都可以被检测。表1展示了我们在实验中所选取预测框的尺寸和比例。   (3)损失函数   对于每个层次的特征图预测,都有?筛鍪涑觥5谝桓鍪涑霾糠质歉貌闾卣魍忌厦扛鲅∪⊙?本正负例分类的置信误差,用公式(1)表示:   其中,[Ncls]表示的是一批预测框,包括正例和负例预测框的数量。[pi]表示第i个预测框的预测的正负性,[p*i]表示第i个预测框的真实正负性。如果是正例样本,则[p*i=1],如果是负例样本,则[p*i=0]。[Lcls(?)]是单个预测框的分类损失,我们用softmax计算。   第二个输出部分是该层特征图上每个选取样本位置与真实车牌区域位置的误差,用公式(2)表示:   其中,[Nreg]是表示的是一批预测框中正例样本的数量。[ti]表示第i个预测框的预测位

文档评论(0)

erterye + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档