2026《yolo v2车辆检测算法分析案例》2300字.docxVIP

2026《yolo v2车辆检测算法分析案例》2300字.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

yolov2车辆检测算法分析案例

目录

TOC\o1-3\h\u11611yolov2车辆检测算法分析案例 1

282211.1Yolov1算法原理 1

18001.2损失函数 2

158751.3Yolov2算法原理 3

Yolo系列算法属于一阶段深度学习目标检测算法的一种。相对于两阶段目标检测算法,Yolo系列算法更加深刻的贯彻了采用直接回归的方法获取到当前需要检测的目标,不需要更加复杂的设计过程以及目标类别的一种思想。2015年,YoloV1算法是被提出。时隔两年,作者JoseRedmon和AliFarhadi又提出了对YOLOV1算法的改进,即YOLOv2。

1.1Yolov1算法原理

Yolov1是一种基于直接回归的目标检测算法。Yolov1算法原理是把每张图像分成S*S格子(cell)。在图像上,物体的中心落在哪个格子上,这个物体的预测就由这个格子负责。每一个格子都需要预测B个边界框(boundingbox)和C个类别的概率,计算出该边界框的置信度(confidence)。

Boundingbox实际上是一个四维向量(x,y,w,h)。(x,y)是指所生的物体边框中心坐标,(w,h)是指所生成的边界框的宽和高。在目标分类中,还需要预测C个目标类别的概率,它表示该预测边界框中的检测目标属于各个类别的概率,不过这是一个条件概率,记成:。根据类别的概率可以计算出预测框中目标类别的置信度,各个预测框的类别的置信度计算公式如下:

置信度包括了边界框是否含有物体的概率和这个生成框和真是物体的叫交并比两方面。当该被检测目标不存在当前预测框中,;当被检测目标存在当前预测框中,。置信度的计算公式如下:

YoloV1的模型结构基础也是基于卷积神经网络,包括输入层、卷积层、池化层和全连接层。YOLOV1结构图如下:

1.2损失函数

YOLOV1算法采用损失函数为平方误差函数,目的是让预测边界框中心坐标值、预测边界框的宽和高、置信度以及分类概率四个部分达到更好的平衡。

关于物体边框损失函数(LossFuction)计算公式如下:

其中,、代表已标注的bbox的中心点坐标,、代表已关注的bbox的长与宽。

关于置信度的损失函数如下:

置信度损失函数不仅与含有检测目标的预测框的置信度有关,也与不含检测目标的预测框的置信度有关。其中noobj代表不包含检测目标的预测框的置信度,目的是平衡过多的“非物体”格子。

关于分类概率的损失函数计算公式如下:

综上所述,损失函数的表达式:

1.3Yolov2算法原理

Yolov2算法是在Yolov1算法的基础上做出了改良,Yolov1目标检测算法虽然在检测速度上已经满足了要求,但是准确度还不够高,对拥挤的物体、小物体检测度不好。Yolov2基于这些问题做了改良,网络结构如下:

(1)首先引入BN层

归一化处理(BatchNormalization,BN)的本质原理是插入一个归一化层在网络的每一个卷积或池化层之后,换句话说就是在进入下一层网络之前先做一个归一化至均值0、方差为1的处理。YOLOV2算法引入批量归一化处理,有助于改善流经网络的梯度、对正则化的依赖,并且减少过拟合现象。在YOLOV2中,用每一层卷积层后面用批量归一化代替随机筛选(Droput)操作后,平均检测精度直接提升了2%。

(2)AnchorBox

YOLOV1算法是将输入图分成7*7的网格,每个网格预测2个边界框,它包含全连接层,也能直接预测出边界框的坐标值,但也会导致丢失较多的信息,定位精度较低。YOLOV2移除了FC(fullyconnection)层和最后一个Pooling层,引入了AnchorBox预测boundingbox。这样做提高了对特征图的分辨率,并且将448*448的网格大小替换成416*416的,也就意味着每个特征图在划分单元格的时候会只有一个中心单元格。因为对于大多数检测目标,特别是大目标,更倾向于占据图像的中心位置,一个中心单元格相较于四个相邻的单元格,则能更好的预测目标的位置。

AnchorBox是预设好的虚拟边框。Yolov2算法通过预测AnchorBox的偏移度与置信度,也就是说训练样本的真实边框的位置是根据虚拟边框的偏移得到的,检测目标的大概位置由虚拟边框先“框”出,然后在根据框出的位置进行调整得到真实边框。

(3)高分辨率模型

现在一般的目标检测方法在检测之前都会先在ImagNet上预训练分类器,然后再进行检测。但自AlexNet开始,大部分分类器的分辨率一般都低于256*256。就像YOLOV1预训练的输入图像尺寸和检测的输入图像尺寸不一致,预训练时的输入尺寸是22

文档评论(0)

02127123006 + 关注
实名认证
文档贡献者

关注原创力文档

1亿VIP精品文档

相关文档