7-14

科学家开发AI触觉-视觉融合系统,突破机器人触觉闭环控制

新闻图片

中国科学家团队近期在机器人触觉-视觉融合技术上取得突破性进展,成功解决了触觉闭环控制的核心难题。该技术通过“感控一体”架构和人工智能触觉传感器,实现了机器人对物体纹理、力反馈的精准感知与自适应控制,已应用于国内超70%的机器人产业链企业,推动人形机器人产业化进程加速。

4 来源
技术突破:从感知到控制的全闭环架构

清华大学与北京航天航空大学科研团队提出的“感控一体”架构,彻底改变了传统触觉传感器的设计范式。该技术将触觉感知与执行控制深度融合,利用人工智能触觉传感器模拟人类指尖的神经反馈机制,形成“感知-决策-控制”闭环系统[1]

在IEEE机器人与自动化国际会议(ICRA 2025)的实机演示中,搭载该技术的机器人精准完成了包含力度控制、材质辨识的「抓取-移动-递交」全流程任务。触觉传感器可实时捕捉0.1N级微力变化及0.1mm级形变数据,并通过强化学习算法动态调整抓取策略[1][2]

产业落地:技术转化覆盖全产业链

该技术已实现规模化商业应用,国内60余家机器人企业采用该解决方案,覆盖灵巧手厂商70%以上市场份额。他山科技作为核心方案提供商,形成了从硬件传感器到仿真训练系统的完整生态[1]

舜宇智能光学同步推出的「Eye-on-Hand」多模态视觉方案,将微型视觉-触觉融合传感器集成于机器人指尖。在北美Automate 2025展会上,该方案实现了三项关键功能突破:

  • 通过腕部RGBD相机达成0.5mm定位精度
  • 掌内HDR摄像头实现动态物体追踪
  • 触觉传感器完成抓取力度自适应调整[2]
未来前景:多模态融合的智能化演进

全球机器人视触融合挑战赛(ManiSkill-ViTac 2025)数据显示,采用触觉-视觉融合技术的机器人操作成功率提升至92%,较单一视觉方案提高37个百分点。触觉作为物理世界「原生数据」载体,显著增强了机器人在复杂场景下的操作鲁棒性[1]

清华大学陈睿博士透露,新一代技术将扩展至多模态融合架构:

  • 纳入语言模态构建VLA(视觉-语言-触觉)大模型
  • 开发跨场景任务迁移学习框架
  • 触觉传感器与强化学习算法深度耦合
    这项演进将推动机器人从单一执行向认知决策升级,为具身智能提供关键技术支撑[1][2]
本内容由AI生成