- 1、本文档共9页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
共轴立体视觉深度测量
摘要:共轴立体视觉测距是一种深度恢复的新方法,利用光轴处于同一直线的两架相机,从单一角度获取图像信息,将三维空间的深度信息转换成二维空间的缩放视差,从而通过图像旋转与缩放、特征点提取、图像匹配、中心点估计等技术恢复深度信息。该技术具有测量系统体积小、实时性强等特点。介绍了该技术的深度恢复公式和算法,并设计了共轴立体摄影测距传感器,用实景实验和3ds max模拟实验对该技术进行了验证。试验结果表明,中长距离深度测量精度优于0.1%。
关键词:立体视觉; 共轴成像; 机器视觉; 图像处理; 深度测量
1系统原理及方案设计
1.1共轴立体视觉深度测量理论
共轴成像模型如图1所示,符号含义见表1。
表1系统参数
f1 /mm后置镜头焦距f2 /m前置镜头焦距r1 /μm后置成像平面像点中心距r2 /μm前置成像平面像点中心距l /m镜头间距z /m地面物点深度θ /(°)被测区域视场角
图1中,传感器阵列ccd1和ccd2位于前后不同成像平面,分别与2个定焦镜头对应。从物点a在两个ccd上的成像点距离ccd中心的距离r1,r2中,可明显看出具有一定视差,由视差便可恢复a点深度,其分辨精度与ccd像元大小有关。
图1共轴成像模型根据双焦成像模型,可推导出如下公式。
(1)像点位置方程:r1/f1=r/(z+l)
r2/f2=r/z(1)像点位置方程根据光的直线传播特性而来,联立式(1)消去r可得:
(2)深度计算方程:z=(f2/f1)r1r2-(f2/f1)r1·l(2)由式2可知,镜头焦距f1,f2及透镜中心距l均为已知系统参数,只要求得像点中心距r1,r2便可恢复深度信息z。
设图像传感器单位像元尺寸为s,共轴图像对中心点为(xc,yc),点(x1,y1)和点(x2,y2)分别为被测物点a在2幅图像中的匹配点,则有:ri=(xi-xc)2+(yi-yc)2·s,i=1,2(3)由式(2)和式(3)可知,共轴立体视觉深度测量将被测物点深度信息的求解问题转化为了图像对中被测物点对应匹配点坐标和图像中心点坐标的求解问题。
(3) 过中心点原理。如图2所示,前后相机图像相对中心点呈中心缩放,对应像点连线通过中心点。则两图像中的同名点(x1,y1)和(x2,y2)与图像中心点(xc,yc)的连线必定在同一方向上,故有:x1-xcx2-xc=y1-ycy2-yc(4)过中心点原理是共轴立体视觉中一个重要原理,在特征点提取、特征点匹配和中心点恢复算法中都运用。
1.2共轴立体视觉深度测量精度分析
为了分析简便,将物点的深度计算公式归结为矢量函数关系式:z=f(l,f1,f2,r1,r2)(5)根据误差分析理论,用ψi表示各参数误差的传递函数:ψi=δiδ=fi(6)式中:i代表l,f1,f2,r1,r2各参数;δi是参数i的误差δi对整体误差贡献的分量。
相应的,令δl,δf1,δf2为成像系统硬件参数l,f1,f2的标定误差,即系统误差;δr1,δr2为被测点a所对应像点中心距r1,r2的提取误差,受软件算法及传感器元件尺寸影响,即随机误差。
图2过中心点原理图根据误差理论得到测量的总误差是系统误差和随机误差的合成误差,可推导综合误差为:δz=δl·ψl+δf1·ψf1+δf2·ψf2+
δr1·ψr1+δr2·ψr2(7)用δ表示软件算法提取像点中心距的误差(假设δr1=δr2=δ),包括像点匹配误差和图像中心点计算误差,根据式(2)、式(6)及式(7),径向位移提取误差引起系统测量总体误差函数为:δz=z(z+l)[z(f1+f2)+lf2]rlf1f2·δ(8)由式(8)分析可知,提高共轴立体视觉深度测量精度主要有3条途径:
(1) 减小像点径向位移的提取误差δ,可通过选择合理软件算法,采用高精度图像采集装置,提高像点匹配精度和中心点估计精度;
(2) 增大l,f1,f2,可选择l,f1,f2较大的图像采集装置,确定合理的硬件参数;
(3) 减小z/r的比值,可合理选择摄像机拍摄视角,让观测角尽可能大。
1.3共轴立体视觉传感器设计
根据以上提高精度的3条途径,本文设计了一种高精度广角数码相机作为图像采集单元,原理如图3所示,被关注区域的光线以较大视场角进入长焦广角镜头,汇聚于大尺寸高分辨率ccd上,将光信号转换为高清数字图像。
该相机由光学镜头部分、光电传感器部分和机械调节部分构成。光学镜头为施奈德大焦距广角镜头,焦距210 mm,视场角为±36°;光电传感器采用大尺寸ccd,分辨率为1 420万像素,像元尺寸为5.1 μm。镜头和ccd之间用遮光皮腔连接,屏蔽杂光,确保图像质量。相机ccd部分由机械调节部分托起,可调节焦距f和ccd光轴距离r以便接收所关注区域的清晰图像。采用2个图像采集单元共轴排列,充分满
文档评论(0)