NILabVIEW3D成像..docx

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
NILabVIEW3D成像.

NI LabVIEW 3D成像发布日期:?八月 05, 2013?| 0 评级 |?0.00?out of 5 |?窗体顶端Read in English窗体底端? |??PDF概览3D成像技术已经走出学术研究实验室很远一段路程,得益于传感器、照明,以及最重要的嵌入式处理技术的创新发展,3D视觉目前已经广泛用于多种机器自动化应用。从视觉引导的机器人装箱到高精度计量,最新一代的处理器现在能够处理海量的数据集和复杂的算法,从而提取出深度信息和快速做出决策。通过LabVIEW视觉开发模块的这样一个软硬件无缝集成的3D视觉工具,工程师们能够在一个图形开发环境中访问3D视觉。目录3D成像介绍视觉开发模块中的立体视觉功能立体视觉的工作原理立体视觉应用总结和下一步更多相关资源1. 3D成像介绍使用2D相机传感器或者其他光学感应技术来计算深度信息有多种方法。下文简要说明了最为常用的方法:3D成像技术描述?立体视觉?使用两只相机,安装在同一物体的不同视角处,采用校准技术来统一两只相机的像素信息,并提取深度信息。这与人脑通过双眼测量距离的原理非常相似。??激光三角测量?激光束投射到物体上,通过相机采集图像并测量激光束在一个物体切片上的位移来生成高度轮廓。沿多个物体表面切片进行激光和相机扫描以最终生成3D图像。??投射光?将已知光图像投射到物体上,然后根据图像在物体周围的变形方式来计算深度信息。??飞行时间传感器?光源与图像传感器同步,根据光脉冲发射与反射回传感器之间的时间差来计算距离。??激光雷达?测量激光反射并生成3D轮廓,以绘制出目标勘察区域的表面特征和探测物体。??光学相干断层扫描技术(OCT)?这种高分辨率成像技术通过测量近红外光穿过物体横截面的反射,来计算深度信息。由于此技术能够无创穿透多层生物组织,所以最常用于医学成像。???至页首2. 视觉开发模块中的立体视觉功能?从LabVIEW 2012开始,视觉开发模块包含了双目立体视觉算法,计算来自多只相机的深度信息。利用两只相机的校准信息,新型算法能够生成深度图像,提供了更加丰富的数据来识别物体、检测缺陷,以及引导机器人臂的运动和响应。双目立体视觉系统使用两只相机。在理想情况下,两只相机分开较短的距离,并几乎平行安装。如图1所示,用一盒球形巧克力来说明3D成像在自动化检查方面的优势。在校准两只相机以确定分离和倾斜等3D空间关系之后,系统采集两幅不同的图像以定位可能存在缺陷的巧克力。利用视觉开发模块的新型3D立体视觉算法,将两幅图像合成,然后计算深度信息以及实现深度图像可视化。?图1.?立体视觉利用左右两幅图像生成深度图像示例???3D深度图像显示有两块巧克力的圆润度达不到高品质标准,然而2D图像就不是如此明显。图2所示图像用白框圈起有缺陷的巧克力。/p>?图2.?3D深度图像,有缺陷的巧克力用白框圈起?在利用立体视觉时,一项很重要的考虑是:根据左图的一条线和右图的同一条线来定位特征,并据此计算视差。为了定位并区分特征,图像需要具有足够的纹理,并且为了获得更好的结果,您可能需要用结构化的照明来照亮场景,以增加纹理。?最后,可以利用双目立体视觉来计算被检物体表面上的点的3D坐标(X,Y,Z)。这些点常常称为点云。点云对于3D物体形状的可视化非常有用,而且也可以被其他3D分析软件所用。例如,LabVIEW工具网络现在提供AQSense 3D形状分析库?(SAL3D),并使用点云进行进一步图像处理和可视化。?至页首3. 立体视觉的工作原理为了更好地说明双目立体视觉的工作原理,图3提供了一个简化的立体视觉配置图,其中两只相机平行安装,并具有相同的焦距。图3.简化的立体视觉系统图3所示变量为:b为基线,或者两只相机的间距f为相机焦距XA为相机的X轴ZA为相机的光轴P为坐标X、Y和Z确定的真实点uL为真实点P在左侧相机所采集图像上的投影uR为真实点P在右侧相机所采集图像上的投影?由于两只相机的间距大小为 “b”,所以在获得的2D图像上,两只相机看到真实点P处于不同的位置。点uL和uR的X坐标为:uL?= f * X/Z和uR?= f * (X-b)/Z?两个投影点之间的距离为“视差”,并且我们可以利用此视差来计算深度信息,即真实点“P”与立体视觉系统之间的距离。视差 = ??uL?– uR?? =? f * b/z深度 = f * b/视差?在实际应用中,立体视觉配置要更加复杂,比较类似图4所示的典型系统,但基本原理仍是一样的。?图4.?典型的立体视觉系统?简化立体视觉系统的理想假设并不适用于真实世界的立体视觉应用。即使是最好的相机和透镜,也都会给采集到的图像引入某种程度上的失真。为了进行补偿,典型立体视觉系统还需要进行校准。校准过程需要使用校准网格,此网格在不同角度处获得,用来计算图像失真以及两只相机

文档评论(0)

xznh + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档