- 1、本文档共59页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
摘要
面向目标检测的边界框回归改进算法研究与实现
目标检测是计算机视觉领域中的一个核心课题,目标检测技术旨在从图片、
视频等信息中,对物体进行识别和定位,是语义分割、图像描述等高层视觉任务
的基础。现如今,目标检测技术在人脸识别、自动驾驶、工业检测、医学图像识
别等领域有着广泛的应用。对于目标检测的定位任务而言,边界框回归是决定物
体定位精度的关键因素之一。
边界框回归损失大致可以分为两类:传统的L范式损失(L,L,SmoothL);
n121
基于IoU的系列损失(IoU、GIoU、DIoU、CIoU等)。传统的L范式损失因其独
n
立计算每一个坐标参数的损失忽略了坐标参数之间的联系而被诟病,因此大多数
现有的边界框回归损失都是基于IoU的。本文对现有的边界框损失进行了分析:
首先发现现有边界框损失函数没有对IoU是否有更好的表现形式进行探讨,都
沿用了IoU作为基础损失项,而且它们在一些特殊情形下不能有效的描述边界
框之间的优劣。其次没有很好的处理边界框回归过程中高低质量样本不平衡问题,
没有深入挖掘有效样本。
基于上述问题本文对于IoU损失和损失惩罚项、有效样本挖掘方面进行了研
究和改进,主要研究内容及工作如下:
(1)对比于SmoothL损失以及IoU损失的梯度,发现SmoothL损失和IoU
11
损失的梯度趋势完全相反,SmoothL损失在接近高质量回归效果的情况下梯度
1
降低,而IoU损失在接近高质量回归效果的情况下梯度反而增大。本文认为这是
IoU损失优于SmoothL损失的原因之一。基于此发现,本文在IoU损失的基础
1
上改进了IoU的表现形式,称之为NIoU损失。其次本文分析了基于IoU损失的
附加惩罚项,发现其附加惩罚项都是从边界框回归整体的角度进行的设计,而没
有单独考虑边界框每个边的回归效果,基于这个问题本文提出了边距惩罚项,该
损失计算了目标框与预测框的每个边之间的距离差值,细化了对于每条边的回归。
同时,考虑到加入四个相对独立的惩罚项可能导致的边界框回归的不稳定波动,
引入了基于边界框对角线向量余弦相似度惩罚项,通过控制二者在向量空间的夹
角以约束回归方向。将上述三种改进结合在一起提出LIoU损失,通过MSCOCO
2017数据集训练验证,与现有的边界框回归损失比较达到最好的AP,表明了方
I
法的有效性。在RetinaNet、PAA等模型上使用该边界框回归损失,这些模型AP
均有提升,表明了该方法的泛用性。
(2)为了解决边界框回归高低质量样本不平衡问题,本文改进了现有的边界
框回归损失权重。引入本文提出的NIoU作为权重控制因子,将每个训练批次中
均值低于平均NIoU值的定义为低质量样本,高于平均NIoU值的定义为高质量
样本,对边界框回归过程中的低质量样本进行降权处理,对于高质量样本进行加
权处理。提出一种权重系数,将提出的权重与LIoU损失结合,通过MSCOCO
2017数据集训练验证,对比于现有的方法本文提出的方法有着更高的AP提升,
表明了方法的有效性。并应用RetinaNet、PAA等模型上,均有有效的AP提升,
表明了方法的泛用性。
关键词:
深度学习,目标检测,边界框回归,有效样本挖掘
II
A
文档评论(0)