CN115619826B 一种基于重投影误差和深度估计的动态slam方法 (西南科技大学).docxVIP

  • 0
  • 0
  • 约1.33万字
  • 约 23页
  • 2026-01-21 发布于重庆
  • 举报

CN115619826B 一种基于重投影误差和深度估计的动态slam方法 (西南科技大学).docx

(19)国家知识产权局

(12)发明专利

(10)授权公告号CN115619826B(45)授权公告日2025.07.11

(21)申请号202211265048.6

(22)申请日2022.10.17

(65)同一申请的已公布的文献号申请公布号CN115619826A

(43)申请公布日2023.01.17

(73)专利权人西南科技大学

地址621010四川省绵阳市涪城区

(72)发明人白克强邓子鞋王国鹏蒋和松姜官武李涛李旭春

(74)专利代理机构北京正华智诚专利代理有限公司11870

专利代理师李梦蝶

(51)Int.CI.

GO6T7/246(2017.01)

GO6T7/50(2017.01)

G06T7/62(2017.01)

G06T3/08(2024.01)

GO6N3/0464(2023.01)

GO6N3/045(2023.01)

G06T7/70(2017.01)

(56)对比文件

CN112902953A,2021.06.04CN114170290A,2022.03.11

审查员陈红圆

权利要求书2页说明书7页附图2页

(54)发明名称

一种基于重投影误差和深度估计的动态SLAM方法

(57)摘要

CN115619826B本发明公开了一种基于重投影误差和深度估计的动态SLAM方法,包括以下步骤:获取RGB图像,提取RGB图像的ORB特征点;对RGB图像预处理,得到静态背景、目标标签、像素点还原至世界坐标系的坐标和进行帧间匹配后的像素点;根据RGB图像的ORB特征点、静态背景、目标标签、像素点还原至世界坐标系的坐标和进行帧间匹配后的像素点计算并根据重投影误差和深度残差识别动态目标和静态目标;根据动态目标、静态背景和静态目标,完成SLAM并实时估计动态目标位

CN115619826B

度。

开始

开始

获取RGB图像,提取RGB图像的ORB特征点

对RGB图像预处理,得到静态背景、目标标签、像素点还原至世界坐标系的坐标和进行帧间匹配后的像素点

根据RGB图像的ORB特征点、静态背景、目标标签、像素点还

原至世界坐标系的坐标和进行帧间匹配后的像素点计算并根据重

投影误差和深度残差得到动态目标和静态目标

根据动态目标、静态背景和静态目标,完成SLAM并实时估计动态目标位姿

对动态目标位姿进行光束平差优化

结束

S1

S2

S3

CN115619826B权利要求书1/2页

2

1.一种基于重投影误差和深度估计的动态SLAM方法,其特征在于,包括以下步骤:

S1、获取RGB图像,提取RGB图像的ORB特征点;

S2、对RGB图像预处理,得到静态背景、目标标签、像素点还原至世界坐标系的坐标和进行帧间匹配后的像素点;

S3、根据RGB图像的ORB特征点、静态背景、目标标签、像素点还原至世界坐标系的坐标和进行帧间匹配后的像素点计算并根据重投影误差和深度残差得到动态目标和静态目标;具体实现方式如下:

相机和动态目标沿不同方向运动时:

S3-1、根据公式:

T=Ti-1X=Ti-1Xi-1

得到相机当前位姿T;;其中,上一帧相机的变换矩阵为Xi-1,位姿为Ti-1,i为目标在上一帧的第i个0RB特征点;

S3-2、根据公式:

m^??=T_π?1(p-1)

得到P-1在世界坐标系下的齐次坐标m;其中,k表示ORB特征点的序号;i-1表示该点由第i-1帧图像逆投影得到;

S3-3、根据公式:

得到重投影误差e;其中,n为目标采样点的个数;p为目标采样点在当前帧的像素位置;|I·|I?为二范数;

S3-4、当重投影误差小于设定阈值时,目标为静态;当重投影误差大于设定阈值时,目标为动态;

相机和动态目标沿相同方向运行时:

S3-5、根据公式:

q-1=T?m^_1

得到当前帧相机坐标系下的位置4-;其中,j-1表示该点由第j-1帧图像逆投影得到;j表示目标在上一帧第j个ORB特征点;k表示ORB特征点的序号;

S3-6、根据公式:

m=π?1(p)

得到经光流网络找到目标在当前帧的像素位置并逆投影至三维世界得到目标在当前帧相机坐标系下的位置m;其中,p为目标采样点在当前帧的像素位置;

S3-7、根据公式:

得到深度残差ea;其中,z(·)表示

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档