CN112102224B 一种基于深度卷积神经网络的布匹疵点识别方法 (浙江工业大学).docxVIP

  • 0
  • 0
  • 约1.39万字
  • 约 23页
  • 2026-01-22 发布于重庆
  • 举报

CN112102224B 一种基于深度卷积神经网络的布匹疵点识别方法 (浙江工业大学).docx

(19)国家知识产权局

(12)发明专利

(10)授权公告号CN112102224B(45)授权公告日2025.01.10

(21)申请号201910527733.3

(22)申请日2019.06.18

(65)同一申请的已公布的文献号申请公布号CN112102224A

(43)申请公布日2020.12.18

(73)专利权人浙江工业大学

地址310014浙江省杭州市下城区潮王路

18号

(72)发明人朱威陈康任振峰郑雅羽

(74)专利代理机构杭州赛科专利代理事务所(普通合伙)33230

专利代理师郭薇

(51)Int.CI.

GO6T7/00(2017.01)

GO6V10/764(2022.01)

GO6V10/774(2022.01)

GO6V10/82(2022.01)

GO6N3/0464(2023.01)

(56)对比文件

CN109064459A,2018.12.21

CN109215022A,2019.01.15

审查员唐进岭

权利要求书2页说明书6页附图5页

(54)发明名称

一种基于深度卷积神经网络的布匹疵点识

别方法

(57)摘要

CN112102224B本发明涉及一种基于深度卷积神经网络的布匹疵点识别方法,包括以下四个部分:(1)修改FasterR-CNN神经网络模型,包括使用全局平局池化层替代特征提取网络中的前两个全连接层,并增加区域建议网络中的锚点框;(2)使用数据增强的方法扩充数据集;(3)采用变化的学习率训练改进后的FasterR-CNN网络模型;(4)使用工业线阵相机采集布匹图像,并使用训练好的网络模型识别疵点,输出疵点类别和位置信息。本发明能对断纬、断经、破洞、浮纬等多种类型布匹瑕疵进行识别,具有较快的识别速度和较高的识

CN112102224B

FasterR-CNN神经网络修改

收集布匹疵点原始数

据,使用数据增强的方法扩充数据集

据,使用数据增强的

方法扩充数据集

使用工业相机采集布匹的原始图像

使用训练好的改进FasterR-CNN神经网络对布匹图像进行疵点检测,得到疵点在图像中的位置及其类型

完成整卷布匹的检测否

结束

CN112102224B权利要求书1/2页

2

1.一种基于深度卷积神经网络的布匹疵点识别方法,其特征在于,所述的识别方法包括以下步骤:

(1)FasterR-CNN神经网络修改,包含以下子步骤:

(1-1)将FasterR-CNN的特征提取网络VGG-16中的前两个全连接层FC1、FC2用一个全局平均池化层替代,第三个全连接层FC3保持不变;

(1-2)在FasterR-CNN的原区域生成网络的9种预测锚点框的基础上增加锚点框的尺度大小与尺度变化种类,生成多于9个尺度变化的锚点框;

(2)收集布匹疵点原始数据,使用数据增强的方法扩充数据集;

(3)神经网络训练优化:

采用变化的学习率训练(1)中改进后的FasterR-CNN网络模型;

(4)布匹图像实时检测与分类:

(4-1)使用工业相机采集布匹的原始图像;

(4-2)使用训练好的改进FasterR-CNN神经网络对布匹图像进行疵点检测,得到疵点在图像中的位置及其类型,包含以下子步骤:

(4-2-1)使用VGG-16的13个共享卷积层提取布匹图像特征,生成特征图;

(4-2-2)对特征图做维度为256、卷积核大小为3×3、步长为1的卷积,根据RPN网络对每个锚点框做分类学习,区分属于前景还是后景,以及对分类框位置回归调整至疵点所在的区域范围,输出分类得分与各个框回归后的位置坐标;

(4-2-3)根据RPN的区域意见生成ROI区域,并将各ROI区域统一至7×7大小,每个ROI区域包含512个通道,ROI区域经过全局平均池化层与全连接层将特征映射到样本空间,得到在各样本空间上的分类得分及回归后的目标边框;

(4-2-4)根据分类得分和回归后的目标边框位置信息,对每个目标框的分类得分做分类排序,获取最高得分的类,当最高得分超过设定阈值TH时则该目标框内为最高得分的疵点类,否则目标框内无疵点,输出检测出的疵点类别以及位置信息,TH的取值范围为[0,1];

(4-3)重复步骤(4-1)至步骤(4-2),完成整卷布匹的检测。

2.如权利要求1

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档