无标定视觉伺服在机人跟踪多特征点目标的应用.docVIP

无标定视觉伺服在机人跟踪多特征点目标的应用.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
无标定视觉伺服在机人跟踪多特征点目标的应用

无标定视觉伺服在机器人跟踪 多特征点目标的应用 宋平 康庆生 孟正大 东南大学 摘要:介绍了一种眼在手上的机器人3D视觉跟踪多特征点目标的无标定视觉伺服。利用基于递推最小二乘法估计图像雅可比矩阵伪逆的无标定视觉伺服,这种方法无需计算雅可比矩阵伪逆,避开了图像雅可比矩阵伪逆计算的奇异性问题。实验结果验证了这种方法的可行性,为机器人抓取目标打下了基础。 关键词:眼在手上 多特征点 无标定视觉伺服 3D视觉跟踪 Application of Un-calibrated Visual Servo in Tracking Multi-feature Object Song Ping Kang Qingsheng Meng Zhengda Abstract: This paper presents an uncalibrated control method for robotic vision-guided targets 3D tracking using an eye-in-hand camera. The uncalibrated visual servoing is adopted to fulfill the online recursive estimation of image Jacobian pseudo-inverse matrix, This method doesn’t compute the moore-Penrose inverse of image Jacobian and avoid the singularity of image Jacobian. This experiamental results demonstrate the feasibility of this method and experiment lays the groundwork for grasping target. Keywords: eye-in-hand feature points uncalibrated visual servoing 3D visual tracking 1 引言 近年来,越来越多的机器人被用于工业生产,其领域主要有机器人焊接、工件装配等。这些任务需要机器人有视觉功能,并将视觉信息加入到机器人控制中,其方法被称为视觉伺服。传统的基于视觉的机器人控制,要求摄像机内部参数标定、机器人运动学标定、手眼关系标定,但在实际情况中无法精确标定。为了克服基于标定的方法的弊端,一种无标定方法就越来越受到关注。它的核心是在手眼关系及摄像机模型未知的条件下,在线估计图像雅可比矩阵,并利用视觉反馈误差控制机器人运动,进而完成视觉伺服。 由于视觉传感本身固有的特点只能反馈两维信息,于是就始终存在着对深度信息的估计问题,如何实时而准确地获取深度信息是急需解决的关键而困难的问题。 目前获取目标三维信息的主要有以下几种方法:1)立体视觉,其主要特点是能够获得景深,但立体视觉要进行对应点的匹配,耗费大量的机时,难以满足实时性的要求;2)主动视觉,它通过测距传感器直接测出目标物体的距离,但这就涉及到多传感器的数据融合问题;3)单目视觉,它是通过运动获取深度和从散焦获取深度等。 本文主要用单目视觉来进行无标定视觉伺服,根据目标多特征点在图像平面成像的位置与摄像机的相对位置相关间接反映目标深度信息,由视觉伺服跟踪目标。 2 系统的结构及工作原理 实验系统如图1所示。 图1 实验系统 实验系统包括以下几个部分:PA10机器人手臂及其控制设备、CCD摄像机、图像采集卡、多媒体计算机和火炬目标物。工作时,安装在机器人手臂的摄像机首先对环境进行摄取,通过图像采集卡采集图像信息,利用图像处理对目标物体识别。如果目标不在摄像机视野范围内,则控制机器人手臂左、右和上、下摆动来进行全方位的搜索目标,直到目标出现在视野范围内。当目标在摄像机视觉范围内,则进行无标定视觉伺服。 为了实现机器人能在深度上的跟踪,本文选取了目标的两个特征点。多特征点在图像平面的投影图像间接的反映了目标的深度信息。在实时的控制过程中,用实时视觉特征与图像期望特征构成视觉反馈的差,在线估计图像雅可比矩阵伪逆,采用伪高斯-牛顿算法,算出机器人关节变化量,引导机器人完成任务。 3 图像处理 基于图像的视觉伺服系统中,图像处理是目标识别和特征点提取的基础。图像处理的工作过程是图像输入、预处理、图像识别、特征提取等步骤。图像输入是由摄像机和图像采集卡共同完成;图像预处理包括:颜色模型转换、图像平滑、中值滤波;图像识别包括:边缘提取、检测平行线、检测环;特征提取。

文档评论(0)

ipuflu + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档