2025《Two-stage目标检测算法概述》1800字.docxVIP

2025《Two-stage目标检测算法概述》1800字.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

Two-stage目标检测算法概述

Two-stage目标检测算法的基本思想是将目标定位和目标分类分为两步进行,即先使用设计好的RPN(RegionProposalNetwork,区域生成网络)生成矩形候选区域,再使用卷积神经网络对生成的候选区域进行分类,整体分为两个步骤进行。其网络的准确度相对较高,但速度相对较慢。

Two-stage算法的代表为R-CNN系列,包括R-CNN、FastR-CNN和FasterR-CNN,本节将对R-CNN系列算法原理的核心思想进行介绍,并对本选题搭建无人机目标检测模型时使用的同属于Two-stage的FGFA算法的关键原理进行详细说明。

1R-CNN

R-CNN(RegionConvolutionalNeuralNetworks,区域卷积神经网络)是R-CNN系列最早提出的目标检测算法,也是第一个在目标检测领域成功使用深度学习框架的算法。

它遵循传统目标检测算法中穷举所有可能出现的候选框,再对候选框进行特征提取及分类,最终通过非极大值抑制输出结果的思路,将整体流程划分为候选框生成、特征提取、图像分类、非极大值抑制四步,使用SS(SelectiveSearch,选择性搜索)的方法生成候选区域,使用卷积神经网络进行特征提取并得到每张图的特征向量,再利用SVM(SupportVectorMachine,支持向量机)进行回归,最终输出经过非极大值抑制和使用另一个边界框回归模型修正位置后的结果,得到相对精确的检测结果。算法的结构框架如图2-3所示。

图2-3R-CNN算法结构框架

2FastR-CNN

由于最初的R-CNN算法需要对每一个候选区域进行特征提取,巨大的计算量导致R-CNN算法的耗时长、成本高,因此,为了提高训练和测试的速度,使用VGG-19网络结构的FastR-CNN算法被提出,它的创新点在于摒弃了原先的R-CNN需要对每个候选区域进行卷积计算的过程,加入了RoIPooling,使用一个神经网络将该步骤简化为对整个图像进行卷积运算。同时,FastR-CNN将候选区域分类和边框拟合步骤放到一个环节中进行,同步使用两个全连接的输出层完成类别和边框的预测,提高了模型整体的训练和测试速度。算法的结构框架如图2-4所示。

图2-4FastR-CNN算法结构框架

3FasterR-CNN

在R-CNN算法中,对于计算资源耗费较大的步骤分别是候选区域生成和特征提取,FastR-CNN算法通过对特征提取部分进行优化提高了计算速度,而候选区域生成环节的耗时问题仍未彻底解决。

基于上述思路,FasterR-CNN算法被提出,它使用一个RPN网络代替了原先依赖选择性搜索生成候选区域的方式,并将RPN网络与用于提取图像特征的卷积神经网络相连接,使它们在同样需要进行卷积运算的前几层中共享参数,在后续的其它层中完成各自的任务,即可通过对共享的卷积层进行前向卷积计算的方式一次性获得候选区域和分类及定位结果,使得算法的整体性能尤其是计算速度方面有显著的提高。算法的结构框架如图2-5所示。

图2-5FasterR-CNN算法结构框架

4FGFA

在目标检测领域,除了针对图像的目标检测外,针对视频的目标检测也有着广泛的应用场景。然而,与图像的目标检测不同的是,视频的动态特性使得目标的特征会出现多种形式的退化,如运动模糊、姿态变换等。视频由一帧帧图像组成,而连续图像的变化规律则能在图像本身之外提供更多的信息,因此,在目标检测算法中加入对时序信息的处理成为了视频目标检测的重要思路。

2017年,微软亚洲研究院视觉计算组提出了FGFA(Flow-GuidedFeatureAggregation,光流法)REF_Re\r\h[12]实现目标检测的方案,它是一种属于Two-stage类别的目标检测算法。FGFA基于上述思路,将相邻帧的时序特征聚合到了当前帧的特征中,在图像原有的信息基础上利用相邻帧之间相似的特征图来增强小目标的特征,加入了更加丰富的信息以提高检测的精度,可达到更加准确、稳定的输出。

算法主要由光流提取、特征融合两个模块构成。在光流提取模块,使用FlowNet网络提取当前帧与相邻帧之间的光流,并将其与当前帧、相邻帧的特征组合,再使用元素权值求和的方式进行特征融合。算法的整体架构如图2-6所示:

图2-6FGFA算法架构

如图所示,特征提取网络在当前帧上提取出单帧特征,同时用光流网络估计相邻帧和当前帧的运动,将相邻帧的特征根据光流运动中的信息变换到当前帧,以加强当前帧的特征。变换后特征图一起通过适应权重网络进行聚合,聚合得到的特征图最终用于输出当前帧的检测结果。

下面介绍该算法中的核心计算模块。

1.光流提取

对于某一帧和其相

您可能关注的文档

文档评论(0)

02127123006 + 关注
实名认证
文档贡献者

关注原创力文档

1亿VIP精品文档

相关文档