- 0
- 0
- 约2.51万字
- 约 7页
- 2026-02-27 发布于北京
- 举报
使用视觉语言模型控制仿生手:评估物体感
知和抓握推断
OzanKaraali,HossamFarag,StrahinjaDoen,edomirStefanovi
DepartmentofElectronicSystems,AalborgUniversity,Denmark
DepartmentofHealthScienceandTechnology,AalborgUniversity,Denmark
Email:{ozank,hmf,cs}@es.aau.dk,sdosen@hst.aau.dk
摘要—本研究考察了利用视觉语言模型(VLM)来提升半道依赖于YOLO进行检测,并结合单独的模块来进行
自主假手感知能力的潜力。我们引入了一个用于端到端感知和抓分割和姿态估计[4],[6]。每个模块都需要自己的开发
取推
您可能关注的文档
- 梦想 : 域感知推理用于高效的自主水下监测.pdf
- 高斯对齐通过单视图重建估计相对相机姿态.pdf
- GitHub 的 Copilot 代码审查:人工智能能否在你提交之前发现安全漏洞?.pdf
- 气压计辅助姿态估计.pdf
- 用于森林砍伐检测的联邦学习:一种基于卫星图像的分布式方法.pdf
- 无监督 ALS EPICS 事件日志中的异常检测.pdf
- 从 3D 定位到图像处理的 CLAP 泛化,与 RANSAC 及 Hough 变换的关联.pdf
- 现代化 Facebook 限定搜索:关键词与嵌入式混合检索结合大语言模型评估.pdf
- 立臂协调操作用于幕墙安装.pdf
- 对话系统评估轨道概述:维度、语言、文化和安全在 DSTC 12 中的应用.pdf
原创力文档

文档评论(0)