CN111860103B 一种基于Tensorflow目标检测的动作识别方法 (重庆知熠行科技发展有限公司).docxVIP

  • 0
  • 0
  • 约1.54万字
  • 约 36页
  • 2026-01-22 发布于重庆
  • 举报

CN111860103B 一种基于Tensorflow目标检测的动作识别方法 (重庆知熠行科技发展有限公司).docx

(19)国家知识产权局

(12)发明专利

(10)授权公告号CN111860103B(45)授权公告日2025.07.15

(21)申请号202010390890.7

(22)申请日2020.05.11

(65)同一申请的已公布的文献号申请公布号CN111860103A

(43)申请公布日2020.10.30

(73)专利权人重庆知熠行科技发展有限公司

地址400042重庆市渝中区渝州路192号16

(72)发明人余娟王兵凯孔航何伟

葛学人杨文凯李文沅杨知方

吕洋

(74)专利代理机构重庆大学专利中心50201专利代理师王翔

(51)Int.CI.

GO6V40/20(2022.01)

GO6V20/40(2022.01)

GO6V10/25(2022.01)

GO6V10/44(2022.01)

GO6V10/764(2022.01)GO6V10/82(2022.01)GO6N3/0464(2023.01)

GO6N3/045(2023.01)

(56)对比文件

CN110147743JP2003256756审查员刘梦瑶

A,2019.08.20A,2003.09.12

权利要求书2页说明书8页附图8页

(54)发明名称

一种基于Tensorflow目标检测的动作识别

方法

(57)摘要

本发明公开一种基于Tensorflow目标检测的动作识别方法,主要步骤为:1)获取含有人体姿态和目标物体的视频流,并分解为若干帧图像;2)构造卷积神经网络,并训练得到目标物体识别模型;3)利用目标物体识别模型框选出每帧图像中的目标物体,并为矩形框打上类别标签;

CN111860103B4)基于矩形框的左上角归一化坐标(xmin_nor,ymin_nor)、右下角归一化坐标值(xmxnor,ymaxnor)确定目标物体坐标;5)对目标物体坐标进行处理;6)建立动作识别模型;7)将处理后的矩形框坐标输入到动作识别模型中,对人体姿态进行识别。本发明基于对坐标数据进行欧氏距离、相对位置提取的方法,实现了动作识别模型的建立,

CN111860103B

FasterRCNN网络

FasterRCNN网络

P×QMxN

P×Q

CN111860103B权利要求书1/2页

2

1.一种基于Tensorflow目标检测的动作识别方法,其特征在于,主要包括以下步骤:

1)获取含有人体姿态和目标物体的视频流,并分解为若干帧图像;所述目标物体的两面印刷有图案;

2)利用Tensorflow和FasterR-CNN算法建立卷积神经网络,并训练得到目标物体识别模型;

3)利用目标物体识别模型框选出每帧图像中的目标物体,并为矩形框打上类别标签;确定矩形框的左上角归一化坐标(xmin_nor,ymin_no)、右下角归一化坐标值(xmax_nor,ymax_nor)和置信度C;Xmin_nor、ymin_norXmax_nor、Ymax_nor、c∈[0,1];

4)基于矩形框的左上角归一化坐标(xmin_nor,Ymin_no)、右下角归一化坐标值(xmax_nor’ymax_no)确定目标物体坐标;

5)对目标物体坐标进行处理;

6)建立动作识别模型;

7)将处理后的矩形框坐标输入到动作识别模型中,对人体姿态进行识别;动作识别模型如下所示:

(7)

式中,dis12(t)为目标物体1和目标物体2的欧式距离;(x?2(t),y12(t))为目标物体1和目标物体2的相对位置;下标1表示目标物体1,下标2表示目标物体2;

对人体姿态进行识别的标准为:连续N个视频帧中同时满足阈值和时序条件,则受试者完成指示动作,反之,受试者未完成指示动作;判断函数如下所示:

(8)

式中,t?ag为时间标志位;k??为人体姿态识别参数;disthr、kthr、×thr、Ythr分别表示欧式距离阈值、人体姿态识别参数阈值、阈值和纵坐标阈值。

2.根据权利要求1所述一种基于Tensorflow目标检测的动作识别方法,其特征在于,所述人体姿态为受试者根据AD量表指示完成的动作。

3.根据权利要求1所述一种基于Tensorflow目标检测的动作识别方法,其特征在于,所述卷积神经网络包括输入层、池化层和卷积层。

4.根据权利要求1所述一种基

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档