CN114125455B 一种基于深度学习的双向编码视频插帧方法、系统及设备 (长沙理工大学).docxVIP

  • 0
  • 0
  • 约1.46万字
  • 约 23页
  • 2026-01-21 发布于重庆
  • 举报

CN114125455B 一种基于深度学习的双向编码视频插帧方法、系统及设备 (长沙理工大学).docx

(19)国家知识产权局

(12)发明专利

(10)授权公告号CN114125455B(45)授权公告日2025.07.11

(21)申请号202111394443.X

(22)申请日2021.11.23

(65)同一申请的已公布的文献号申请公布号CN114125455A

(43)申请公布日2022.03.01

(73)专利权人长沙理工大学

地址410114湖南省长沙市天心区万家丽

南路二段960号

(72)发明人章登勇黄普李峰朱文杰彭建

(74)专利代理机构广州嘉权专利商标事务所有限公司44205

专利代理师王浩

(51)Int.CI.

HO4N19/172(2014.01)

H04N19/577(2014.01)

HO4N19/42(2014.01)

GO6N3/0455(2023.01)

GO6N3/0464(2023.01)

GO6N3/048(2023.01)

GO6N3/08(2023.01)

(56)对比文件

CN111263152A,2020.06.09CN113052156A,2021.06.29审查员张述照

权利要求书2页说明书7页附图4页

(54)发明名称

一种基于深度学习的双向编码视频插帧方法、系统及设备

(57)摘要

CN114125455B本发明公开了一种基于深度学习的双向编码视频插帧方法、系统及设备,该方法获取目标视频中的两个相邻帧,使用第一编码器对两个相邻帧进行前向编码,获得第一编码特征,使用第二编码器对两个相邻帧进行后向编码,获得第二编码特征,将第一编码特征和第二编码特征进行融合,获得融合编码特征;使用解码器对融合编码特征进行解码,获得解码特征;对解码特征进行卷积获得卷积参数;基于卷积参数和两个相邻帧,计算获得目标合成帧。本申请使用了两个编码器对输入帧进行特征提取并融合提取的特征,让提取的特征更加完整和丰富,加强了视频插帧质

CN114125455B

获取目标视频中的两个相邻帧,使用第一编码器对两个相

获取目标视频中的两个相邻帧,使用第一编码器对两个相邻帧进行前向编码,获得第一编码特征,使用第二编码器对两个相邻帧进行后向编码,获得第二编码特征,将第一编码特征和第二编码特征进行融合,获得融合编码特征

使用解码器对融合编码特征进行解码,获得解码特征

对解码特征进行卷积获得卷积参数

基于卷积参数和两个相邻帧,计算获得目标合成帧

S100

S300

S400

CN114125455B权利要求书1/2页

2

1.一种基于深度学习的双向编码视频插帧方法,其特征在于,包括以下步骤:

获取目标视频中的两个相邻帧,使用第一编码器对所述两个相邻帧进行前向编码,获得第一编码特征,使用第二编码器对所述两个相邻帧进行后向编码,获得第二编码特征,将所述第一编码特征和所述第二编码特征进行融合,获得融合编码特征;

使用解码器对所述融合编码特征进行解码,获得解码特征;

对所述解码特征进行卷积获得卷积参数;

基于所述卷积参数和所述两个相邻帧,计算获得目标合成帧。

2.根据权利要求1所述的基于深度学习的双向编码视频插帧方法,其特征在于,所述使用第一编码器对所述两个相邻帧进行前向编码,获得第一编码特征,使用第二编码器对所述两个相邻帧进行后向编码,获得第二编码特征,包括:

使用第一编码器中的低维特征层的标准卷积和高维特征层的深度可分离卷积,对所述两个相邻帧从前一帧到后一帧的运动信息进行所述前向编码,获得所述第一编码特征;

使用第二编码器中的低维特征层的标准卷积和高维特征层的深度可分离卷积,对所述两个相邻帧从后一帧到前一帧的运动信息进行所述后向编码,获得所述第二编码特征。

3.根据权利要求2所述的基于深度学习的双向编码视频插帧方法,其特征在于,所述使用解码器对所述融合编码特征进行解码,获得解码特征,包括:

使用所述解码器中的低维特征层的标准卷积和高维特征层的深度可分离卷积,对所述融合编码特征进行解码,获得所述解码特征。

4.根据权利要求1所述的基于深度学习的双向编码视频插帧方法,其特征在于,还包括:

在所述第一编码器和所述解码器之

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档