清华大学与北京航天航空大学科研团队提出的“感控一体”架构,彻底改变了传统触觉传感器的设计范式。该技术将触觉感知与执行控制深度融合,利用人工智能触觉传感器模拟人类指尖的神经反馈机制,形成“感知-决策-控制”闭环系统[1]。
在IEEE机器人与自动化国际会议(ICRA 2025)的实机演示中,搭载该技术的机器人精准完成了包含力度控制、材质辨识的「抓取-移动-递交」全流程任务。触觉传感器可实时捕捉0.1N级微力变化及0.1mm级形变数据,并通过强化学习算法动态调整抓取策略[1][2]。
中国科学家团队近期在机器人触觉-视觉融合技术上取得突破性进展,成功解决了触觉闭环控制的核心难题。该技术通过“感控一体”架构和人工智能触觉传感器,实现了机器人对物体纹理、力反馈的精准感知与自适应控制,已应用于国内超70%的机器人产业链企业,推动人形机器人产业化进程加速。
清华大学与北京航天航空大学科研团队提出的“感控一体”架构,彻底改变了传统触觉传感器的设计范式。该技术将触觉感知与执行控制深度融合,利用人工智能触觉传感器模拟人类指尖的神经反馈机制,形成“感知-决策-控制”闭环系统[1]。
在IEEE机器人与自动化国际会议(ICRA 2025)的实机演示中,搭载该技术的机器人精准完成了包含力度控制、材质辨识的「抓取-移动-递交」全流程任务。触觉传感器可实时捕捉0.1N级微力变化及0.1mm级形变数据,并通过强化学习算法动态调整抓取策略[1][2]。
该技术已实现规模化商业应用,国内60余家机器人企业采用该解决方案,覆盖灵巧手厂商70%以上市场份额。他山科技作为核心方案提供商,形成了从硬件传感器到仿真训练系统的完整生态[1]。
舜宇智能光学同步推出的「Eye-on-Hand」多模态视觉方案,将微型视觉-触觉融合传感器集成于机器人指尖。在北美Automate 2025展会上,该方案实现了三项关键功能突破:
全球机器人视触融合挑战赛(ManiSkill-ViTac 2025)数据显示,采用触觉-视觉融合技术的机器人操作成功率提升至92%,较单一视觉方案提高37个百分点。触觉作为物理世界「原生数据」载体,显著增强了机器人在复杂场景下的操作鲁棒性[1]。
清华大学陈睿博士透露,新一代技术将扩展至多模态融合架构: