CN119380003B 一种基于置信度驱动的增量目标检测方法 (厦门大学).docxVIP

CN119380003B 一种基于置信度驱动的增量目标检测方法 (厦门大学).docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

(19)国家知识产权局

(12)发明专利

(10)授权公告号CN119380003B(45)授权公告日2025.07.08

(21)申请号202411942834.4

(22)申请日2024.12.27

(65)同一申请的已公布的文献号申请公布号CN119380003A

(43)申请公布日2025.01.28

(73)专利权人厦门大学

地址361000福建省厦门市思明南路422号

(72)发明人赵万磊王小燕

(74)专利代理机构厦门市新华专利商标代理有限公司35203

专利代理师骆臣琪

(51)Int.CI.

GO6V10/25(2022.01)

GO6V10/774(2022.01)

GO6V10/764(2022.01)

GO6V20/70(2022.01)

GO6N5/022(2023.01)

(56)对比文件

CN118521818A,2024.08.20审查员傅志良

权利要求书2页说明书9页附图1页

(54)发明名称

一种基于置信度驱动的增量目标检测方法

(57)摘要

CN119380003B本发明提供一种基于置信度驱动的增量目标检测方法,所述方法包括:使用旧模型对新图像生成区域级别的伪标签,用于标记新图像中旧类别目标物体的区域;将新图像的真实标签与生成的伪标签结合,形成扩充的检测目标类别标注,用于新模型的训练;通过旧模型对新图像生成像素级别的置信度值,并与扩充的标签合并,修正新模型中的背景区域;对新模型进行训练,通过区域级别的伪标签和像素级别的置信度值蒸馏,保持对旧类别的检测,同时学习新类别。本发明方法具有计算成本低、易于集成的优点,适用于大规模增量目标检测场景

CN119380003B

S1

S1

S2

S3

S4

使用旧模型对新图像生成区域级别的伪标签,用于标记新图像中旧类别目标物体的区域

将新图像的真实标签与生成的伪标签结合,形成扩充的检测目标类别标注,用于新模型的训练

通过旧模型对新图像生成像素级别的置信度值,并与扩充的标签合并,修正新模型中的背景区域

对新模型进行训练,通过区域级别的伪标签和像

素级别的置信度值蒸馏,保持对旧类别的检测,

同时学习新类别

CN119380003B权利要求书1/2页

2

1.一种基于置信度驱动的增量目标检测方法,其特征在于:所述方法包括:

S1、使用旧模型对新图像生成区域级别的伪标签,用于标记新图像中旧类别目标物体的区域;

S2、将新图像的真实标签与生成的伪标签结合,形成扩充的检测目标类别标注,用于新模型的训练;

S3、通过旧模型对新图像生成像素级别的置信度值,并与扩充的检测目标类别标注合并,修正新模型中的背景区域;

S4、对新模型进行训练,通过区域级别的伪标签和像素级别的置信度值蒸馏,保持对旧类别的检测,同时学习新类别;

所述步骤S1具体包括:

步骤S11、将新图像输入到已训练好的旧模型Mt-1中,生成预测的βoa、Oola、old,其中βoa表示预测框,Oola表示置信度,ola表示类别;

步骤S12、采用非极大值抑制方法NMS对伪标签进行筛选,得到筛选后的预测框βpseudo与类别pseudo,将筛选后的预测框与类别作为新图像的伪标签保留,通过使用非极大值抑制来过滤掉不可靠的区域预测;

所述步骤S3具体为:

通过计算β和β之间的交并比来生成置信度分数,并将置信度损失公式定义为:

0mask=ō+I(σ=0)oldō=fβ,β)

β=Mt(In,y)

其中,n表示样本数量,合表示新模型对新图像输出的置信度,β表示新模型对新图像输出的预测框,所述β和表示经增强注释后的边界框和类别,0mask表示增强注释后的置信度,ō表示置信度分数,所述I表示指示函数,?old表示旧模型输出的置信度,I表示图像;

置信度分数ō的真实值由计算边界框β与真实值β之间的交并比得到,当ō0时,表示当前位置存在一个目标物体,将增强的标注区域标记为目标区域;当0=0时,表示该像素属于背景区域,将背景区域替换为旧模型Mt-1生成的置信度分数,以此修正背景区域,在这种情况下,由旧模型Mt-1生成的置信度分数将直接被赋值给0mask,通过这种方式,旧模型Mt-1中的知识被蒸馏到了新模型Mt中;

CN11

您可能关注的文档

文档评论(0)

xm + 关注
实名认证
文档贡献者

专业学习资料,专业文档

1亿VIP精品文档

相关文档