KUKA 七自由度机器人基于视觉和力反馈的控制.docVIP

KUKA 七自由度机器人基于视觉和力反馈的控制.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
KUKA 七自由度机器人基于视觉和力反馈的控制.doc

KUKA 七自由度机器人基于视觉和力反馈的控制 引言 随着传感设备的普及和小型化,现代机器人产业逐渐向基于传感反馈控制的方向发展。例如基于视觉传感器,移动机器人可以规划路径避开障碍物;基于力传感器,机器人可以向物体施加持续的力而不至损坏物体;基于触觉传感器,多指机器人可以抓住易碎物体。 但基于多传感器信息的反馈控制并不普及,因为不同类型的传感器信息难以融合,甚至不同传感器的反馈控制会相互干扰,导致机器人轨迹失控。本文通过视觉和力反馈的方法,控制德国KUKA公司生产的七自由度旋转关节型机器人实现跟随物体和切割物体的任务。KUKA机器人支持关节空间控制和笛卡尔空间控制,可以向机器人输入关节转角位置或机器人末端的空间位置,并且可以输入假定的末端受力,机器人会产生相应的力以此来抵消受到的来自外部的力。 近年来大批研究者进行了关于机器人视觉的研究,并取得很多成果。台湾国立交通大学宋开泰等人通过立体相机,联合SIFT(Scale Invariant Feature Transformation)算法和SURF(Speed Up Robust Feature)算法,对比数据库中的物体特征与实拍物体特征,从而实现辨识和定位物体。德国慕尼黑工业大学Maldonado等人通过Time-of-flight TOF相机获得无模物体的景深和轮廓,从而确定物体形状和方位。对于已知模型的物体,可以通过单个相机来定位和跟踪物体,法国Lagadic实验室的Marchan,Chaumette等人用单相机实现了基于物体三维模型的实时跟踪算法。在视觉方面,本文将采用Marchand的方法,用单个IEEE 1394 Marlin型相机来定位和跟踪物体。在力反馈方面,本文采用PI控制来达到收敛。 本文的结构如下:第二节讨论如何实现基于视觉反馈的控制。第三节介绍混合型视觉、力反馈控制和外部混合型视觉、力反馈控制两种控制方法,实现两种传感器信息融合并控制机器人。第四节通过在KUKA七自由度机器人平台上进行实际操作,采用混合型视觉、力反馈控制法则获得并分析试验结果。最后一节总结。 基于视觉反馈的控制 将视觉反馈控制的任务定义如下:利用视觉传感器,移动机器人末端到物体表面。用数学模型表达是令机器人末端相对物体表面坐标系的传递矩阵变为单位矩阵,即二者重合。 如前文所述,Marchan,Chaumette等人用单个相机实现了实时跟踪已知模型的物体,并返回物体相对相机坐标系的方位。固定照相机,使其视野包含机器人和物体。通过对机器人末端和需要跟踪的物体建模,可以利用相机获得机器人末端相对物体的相对方位,其中传递矩阵可以利用矩阵乘法传递。 从相对方位中提取特征值,其中[Px,Py,Pz]表示坐标系零点位置的相对位移,由直接得到;[ux,uy,uz]是单位向量,绕该方向旋转θ弧度后,两坐标系方向重合,θ和[ux,uy,uz]由通过下式得到: (1) (2) 定义误差e S-S*,S是当前的特征值,S*是误差为0时刻的特征值,是元素全为0的向量。令误差指数收敛,即,λ是一个表示收敛速度的正实数,λ越大,收敛速度越快。有下式 (3) 其中,分别表示机器人末端相对物体的速度和角速度,Lω(u,θ)是变换矩阵   (4) 是向量u的反对称矩阵。下式表示不同坐标系下速度的转换关系 (5) 综合式(3)和式(5),可以得到 (6) 其中,分别表示机器人末端相对基础坐标系的速度和角速度,0Rb是机器人基础坐标系到物体坐标系的旋转矩阵,可以从传递矩阵0Tb中获得,其中 。定义以下关联矩阵L (7) 1.控制在关节空间 关节空间控制向机器人输入每个关节转角的位置,为了获得关节空间的控制量,需要获得机器人末端速度和每个关节转角速度的关系。从机器人动力学模型可以知道 (8) 其中bJ是根据机器人每个关节转角速度计算机器人末端速度的雅可比矩阵,可以通过机器人的几何结构和关节类型建立出来。最终通过反解,我们可以获得关节空间内每个关节转角的速度,如下式,其中(LbJ)+是(LbJ)的伪逆矩阵。 (9) 最终通过积分,可以求得当前关节转角的位置。 2.控制在笛卡尔空间 笛卡尔空间控制向机器人输入当前机器人末端的位置。通过反解式(12),可以直接获得机器人末端相对机器人基础坐标系的速度和角速度bVe,bωe。 (10) 但角速度不能作为控制量直接输入给机器人,因此必须将其转换为旋转矩阵的速度。 。(11) 最终将速度积分并归一化,可以获得当前的机器人末端的位置Χ。 基于视觉和力反馈的控制 将视觉和力传感器信息融合的难点在于如何将二者转换成控制量,同时确保它们不会相互干扰,基础的方法是使视觉反馈控制的方向垂直于力反馈控制的方向。接下来只考虑在笛卡尔空间的控制,即控制机器人末端的位置。同时力反馈用PI控制达到收敛,控制法则

文档评论(0)

fa159yd + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档