锤子是一个神奇的工具,各种画风都能驾驭。
比如,神族玩锤子是这样。
兽族玩锤子是这样。
人族嘛……
误。
回归正片,今天来看看,机器人玩(个)锤子,且是自学成才,会有怎样的画风?
今天的机器人主角,诞生在斯坦福李飞飞夫妇的实验室里,拥有花样锤技,还被机器人顶会RSS 2018选中了。
关于锤技,先看两个小栗子。
任务一:把钉子敲进木盒
人类只告诉机器人这个任务,没有其他多余的指示。使用什么工具,用什么姿势完成,全靠机器人自己判断。
它发现了桌上的一把锤子。
于是,抓起锤子的把手,把钉子敲了进去。
完成。
任务二:清除桌面的易拉罐
同样,人类只告诉机器人这个任务,没有其他多余的指示。使用什么工具,用什么姿势完成,全靠机器人自己判断。
于是,它又抓起了桌上的锤子。
同样完成。
注意,两个不同的任务,握锤姿势不一样(不一样……)
这个机智的机器人,能够根据不同的任务,决定应该如何握住手里的锤子,以及用什么方式完成指定的任务。
其实,就算是它从来没见过的、骨骼清奇的锤子,也是一眼就会玩。
锯都算上了,但这也只是很小的一部分。
而且,机器人脑子里的神经网络,是自我监督学习的,不需要人类传授什么秘籍。
这只为了任务定制抓取姿势的机器人,是如何修炼成仙的?
先审题,再行动
从前的机器人,大多是用保守的方式抓取工具——抓质心最稳。
简单粗暴,但这并不一定适合它下一步要完成的操作。
▲左为两眼一抹黑,右为找得着北
毕竟,钉子要完全敲进去,易拉罐要掉下桌面去,才算成功。
所以,抓取的牢固程度,与适合任务的程度之间,需要一些妥协。
为了让机器人,在执行任务的时候更有针对性,斯坦福团队制定了四步方略如下——
一是,机器人要懂得,人类希望的结果是什么。
二是,机器人要识别物体的特征,知道它是好用的工具。
三是,找到合适的抓握方向,才能更有效地做任务。
四是,去吧,皮卡丘。
知之为知之,审题真的有用。
神经网络两步走,一抓取二操作
(^∀^*)机器人:
咦,任务是扫桌
咦,锤子长这样
咦,这姿势不错
咦,易拉罐没了
为了让机器人选择正确的姿势,执行特定的任务,团队设计的神经网络结构,也并非一步登天。
▲TOG =任务导向的抓取
这个名叫TOG-Net的神经网络,可以同时训练两个模型——
一是抓取模型,二是操作模型,对应每个任务(锤击/扫除)的两个阶段。
优秀的抓取姿势,是任务成功的一半。
给神经网络输入一幅图,它就会提出几种抓取姿势。
抓取模型会为每个姿势算出一个分数,代表抓取质量。
选择分数最高的一种姿势,给机器人去执行,并且把这个姿势发送给操作模型。
这样一来,系统就能根据已经采取的动作,来规划后面的动作。
步步为营。
虚拟的训练,现实的测试
神经网络不是直接在真实世界里训练的,而是在一个名叫“Bullet(子弹)”的开源物理模拟器里训练的。
虚拟世界里,机器人可以尝试无数次失败,修炼出锤子的使用技能。
虽然,团队也在思考,是不是直接进三次元修炼,也会同样有效。
模拟器可以生成大量的模拟数据。
比如,这样那样的锤子。大体分为三类,T型、L型、X型。
当然,现实更复杂,所以,混合型也要包含进去。
除了工具之外,抓取姿势的数据也非常重要,难点也在这里。
因为,姿势采样的时候,抓握的点大多集中在工具的长边上。许多姿势之间,距离都非常小,太相似了,多样性又不够。
▲适用于扫除的姿势,作用点就不在长边上
于是,团队用了物体识别中,常见的非极大抑制(NMS)方法,去除了一些与高分姿势非常相近的姿势。
这样,训练集里面的姿势各不相同,对训练来说更有力。
另外,自我监督学习机制,会用每一次抓取成功和任务成功的标签,来指导训练过程。
当然,模拟器终究是模拟器,最后还是要把训练成果搬到现实里来。
三次元里,机器人的夹具,是依靠深度摄像头的点云来工作的。
像这样,稍稍超出常理的“锤子”,机器人还会给它转体180度,再扫掉易拉罐。
驾轻就熟。
成果,万变不离其宗
其实,来这里的路上,各位已经陆陆续续看过一些测试的效果了。
不过,还是要强调,以下这些锤子,机器人在训练的时候,都没见过。
T型锤的扫除玩法。
L型锤的敲钉玩法。
混合锤,就是刚才那只绿色脑袋的奇怪物体,再出现一次。
▲要打架么
隐隐感觉,机器人看到这样不科学的工具,还是有些情绪。
不过,内心戏放在一边,研究人员对AI和机器人一起做的任务,还是很满意的。
除了直观地看出,碾压了某不知任务的算法,数据也很硬——
不管锤子是T型,L型,还是奇型。
也不管任务是锤击,还是扫除。
成功率都比忽略任务的同行,高出许多。
实验室里的人类们
这项研究的团队主要来自斯坦福计算机视觉与学习实验室(SVL Lab),包括李飞飞、Silvio Savarese,和他们的学生们。
▲房宽
论文的第一作者房宽是斯坦福大学读博士,师从Silvio Savarese。在进入斯坦福大学之前,他在清华大学读完了本科,当时曾经在微软亚洲研究院机器学习组实习。
房宽在个人主页上透露,去年夏天,他是在Google [X] Robotics度过的;而今年暑假,他要去Google Brain实习了~
其他几位作者也都来自斯坦福大学,其中二作Yuke Zhu和Animesh Garg都是李飞飞和Savarese的学生,而Andrey Kurenkov师从Silvio和Ken Goldberg。
而最后两位作者,也就是指导这项研究老师们,你们应该都很熟悉啦。
一位是计算机视觉界的国民女神李飞飞:
另一位,是她的丈夫,同是斯坦福大学副教授的Silvio Savarese。
不知道这张实验室全家福里,有没有你熟悉的身影: