在此前的一些消息中我们得知,谷歌正在进行AI在机器人领域的应用的研究。谷歌的相关机器人RT-2可以利用自己获得的经验来推断如何做事情。也就是说,经过AI训练的机器人最终可能不需要太多的指令就能执行一些任务。这种技术的发展无疑将为我们的生活带来更多便利和可能性。
丰田研究院(TRI)最近透露,他们正在利用生成式AI技术,开创性地在一个名为“机器人幼儿园”的项目中,为机器人提供早餐制作等各项任务的教学。这一创新方法的核心理念在于,通过给机器人一个触觉感知器,并将其接入一个AI模型,研究人员可以直接向机器人展示如何完成各种任务,而无需花费数百小时进行编码和调试。
触觉感知被视为这个过程中的一个关键推动因素。通过给机器人安装一个“大而软的拇指”,模型可以“感受”它正在做的事情,从而获得更多的信息。这使得一些通常被认为困难的任务,如倒液体、使用工具和操纵可变形物体等,变得比仅靠视觉更容易完成。
丰田实验室的灵巧操作经理本・伯奇菲尔德(Ben Burchfiel)对此表示兴奋。他描述了一个场景:首先,一个“老师”会向机器人展示一系列技能,然后在几个小时内,模型就在后台自我学习。他补充说:“我们经常在下午教一个机器人,让它在夜间学习,然后第二天早上就能看到一个新的行为。”
为了训练机器人,丰田的研究人员正在尝试创建“大行为模型”(LBMs)。这种模型的训练方式与自然语言处理模型(LLMs)类似,都是通过观察人类的行为来学习的。然而,丰田的LBMs将更进一步,它们将通过观察来学习,然后“泛化”,执行它们从未被教过的新技能。
目前为止,研究人员已经成功地训练了60多个具有挑战性的技能,如倒液体、使用工具和操纵可变形物体等。他们的目标是到2024年底,将能够训练的技能数量提高到1000个。