记者10月21日获悉,北京通用人工智能研究院具身智能机器人团队在机器人算法领域取得重大突破。国际机器人学习大会最高奖项杰出论文奖,首次由全中国籍学者团队摘得。获奖论文中,通研院提出业内首个“力位混合控制算法”,实现在没有力传感器的条件下同时学习位置与力的控制,将相关任务成功率提升约39.5%。
在通研院实验当中,一个搭载这项新算法的四足机器人,正有条不紊地执行推拉小车的训练任务。机器人在拉车行进过程中遇到人类伸手阻挡,便能顺应人类的外力停在合适的位置,等待人类的手撤开后,再继续执行之前的运动轨迹。应用新算法的机器人具有更强的柔顺性,与人一起做任务时也更具安全性。
近年来,视觉-语言-动作模型(VLA)通过规模化的数据和强大的模型结构,在模拟环境中展现出超强能力。但在应对现实生活中的诸多任务时,往往会显得“力不从心”,据科研人员介绍,核心问题就在于这些任务大多涉及复杂的接触场景。
比如,擦黑板时,手臂必须既贴合表面又保持适当的压力;开关柜门时,需准确感知内部的推拉式弹簧机构;拉抽屉时,如果有遮挡,仅凭视觉几乎不可能完成任务;削一根黄瓜,力过小则刀划不动,力过大则会切断或损坏。
这些任务都表明,仅靠位置控制是远远不够的,机器人需要的不仅是“走到哪里”“手伸到哪里”,还需要理解“该用多大的力”。在没有“力位混合控制算法”前,这些都需要通过力传感器来解决。那么,能否让机器人在没有额外力传感器的情况下,学会同时控制力与位置?
据通研院方面介绍,搭载“力位混合控制算法”后,机器人便能在没有力传感器的条件下,同时学习位置与力的控制,可实现位置跟踪、施力、力跟踪,以及柔顺交互等多种操作行为。这就让机器人不再只是“执行轨迹”,而是真正理解并掌握与物理世界交互的方式。研究结果表明,使用该策略的成功率比仅使用位置控制的策略提高约39.5%。(记者 杨天悦)
相关人物