logo
繁体
繁体

为什么自动驾驶还没有7个月大的孩子聪明呢?科学家们正在激烈争论AI的未来(收费)

Photo by Valeria Zoncoll on Unsplash 

经济学人报道了关于业界关于AI发展方面的一个争论,这个争论如果能有一个结果,不只是对智能汽车有意义,可能对未来的人类世界都产生很大的影响。

在7个月大的时候,大多数孩子已经知道,即使某个物体不在视线范围内,但它们还是存在的。把玩具放在毯子下面,这么大的孩子已经知道东西还在那里,而且自己可以伸手从毯子下面伸手拿回来。

这种对“物体永久性 ”的理解,是人类逻辑思维中一个正常的发展里程碑,也是现实世界的基本原则。

不幸的是,智能自动驾驶汽车还没有学会这一点,而这一点会造成不少麻烦。自动驾驶汽车正在变得更好,但仍然不能像人类那样理解这个世界。

对于自动驾驶汽车来说,一辆被路过的货车瞬间掩盖的自行车,就是一辆已经不存在的自行车。

这种挫败,是现在计算学科遇到的普遍问题,也是一个基本问题,计算学科给自己冠以人工智能(AI)这个略带误导性的名称,因为目前的人工智能,是通过建立复杂的世界统计模型来工作的,但并不像人类一样,会对现实有深入了解。

如何让人工智能至少能理解一点现实呢?哪怕就是一个七个月大的孩子的推理能力,现在已经成了热门的研究领域。

现代人工智能是基于机器学习的理念。

如果一个工程师想让计算机识别一个停车标志,他不会试图编写数千行代码来描述可能表示这种标志的每个像素模式。相反,他写了一个可以自我学习的程序,然后向这个程序展示成百上千的停车标志图片。

经过多次重复,程序会逐渐找出所有这些图片的共同特征。

类似的技术被用来训练自动驾驶汽车在交通中运行。汽车因此学会了如何遵守车道标记,避开其他车辆,在红灯时踩下刹车等等。但不幸的是,智能汽车并不了解人类司机认为理所当然的许多事情,道路上的其他汽车,应该也有发动机和四个轮子,这些汽车大概率会遵守交通法规,而且必然会遵守物理定律。

当然了,汽车或者说AI,也不会理解物体的永久性。

在最近发表于《人工智能》的一篇论文中,瑞典Orebro大学的梅胡尔·巴特(Mehul Bhatt),描述了一个不同的方向。他也是一家名为CoDesign Lab的公司的创始人,这个公司正在将他的想法商业化。

他和他的同事,正利用一些现有的自动驾驶汽车使用的人工智能程序,将一个叫做符号推理引擎的软件嵌入其中。

推理能力


这个软件不是像机器学习那样从概率上接近世界,而是被编程为、将基本的物理概念应用于处理来自自动驾驶汽车传感器信号的程序输出。这种修改后的输出,被输送到驱动车辆的软件中。所涉及的概念包括:离散的物体随着时间的推移继续存在,它们彼此之间有空间关系(例如“前面”和“后面”),以及它们可以完全或部分可见,或完全被另一个物体所隐藏。

看上去这是有效的。在测试中,如果一辆车暂时挡住了另一辆车的视线,经过推理强化的软件可以跟踪被挡住的车,预测它将在哪里以及何时再次出现,并在必要时采取措施避开它。

不过这种改进现在的效果还不明显。在标准测试中,巴特博士的系统比现有软件的得分只高了约5%。但是除了证明了这个原理,新的改进还产生了其他的东西。因为,与机器学习算法不同,推理引擎可以告诉你它为什么要这样做的原因。

例如,你可以问一辆装有推理引擎的汽车为什么会踩刹车,它会告诉你,一辆藏在货车后面的自行车即将进入前面的十字路口,机器学习程序就无法做到这一点。巴特博士认为,这些信息除了有助于改进项目设计之外,还将有助于监管机构和保险公司,因此可能会加快公众对自动驾驶汽车的接受程度。

巴特博士的工作,是人工智能领域激烈争论的问题之一。早在20世纪50年代,早期的人工智能研究人员就利用这种预推理编程取得了一些成功。但是,从20世纪90年代开始,由于更好的编程技术、更强大的计算机以及更多数据的可用性,机器学习得到了显著改善。

今天,几乎所有的人工智能都是基于机器学习了。

不过,并非只有巴特博士持怀疑态度。在纽约大学研究心理学和神经科学的加里·马库斯(Gary Marcus),也是一家名为Robust.ai的人工智能和机器人公司的老板,他表示赞同巴特的想法。

为了支持他的观点,马库斯博士引用了一个流传很广的八年前的试验。当时DeepMind(当时是一家独立公司,现在是谷歌的一部分)的工程师编写了一个程序,可以在没有任何规则提示的情况下学习如何玩Breakout(一种视频游戏,涉及用虚拟球拍打一个移动的虚拟球)。

DeepMind的程序是一个伟大的球员。但是,当另一组研究人员对Breakout的代码进行了简单的修改,将球拍的位置改变几个像素,程序的能力就急剧下降了。

这说明,强大的程度,却无法将从一个特定情况中所学到的东西,归纳到一个仅有微小差别的情况中。

回到未来


对马库斯博士来说,这个例子证明机器学习有多脆弱。但也有人认为符号推理更脆弱,机器学习仍有很大的发展空间。其中包括伦敦一家自动驾驶汽车公司Wayve的技术副总裁杰夫·霍克,Wayve的方法是同时训练运行汽车各个部件的软件元素,而不是分别训练。

在演示中,Wayve的汽车在浏览狭窄、交通繁忙的伦敦街道时做出了相当漂亮的决定,这对很多人类司机来说都是很有挑战性任务。

霍克博士所说,“大多数现实世界任务的复杂性,比手工制作的规则所能解决的要大,而且众所周知,用规则建立的专家系统往往难以应对复杂性。不管形式逻辑有多好,结构有多好,这都是现实”。

例如,这样的系统可能会制定一个规则,即汽车应该在红灯前停下来。但是在不同的国家,灯的设计是不同的,有些是为行人而不是汽车设计的。还有一些情况下,你可能需要闯红灯,比如为消防车让路。

霍克博士说:“机器学习的魅力在于,所有这些因素和概念都可以自动从数据中发现和学习。而且随着数据的增加,它将继续学习,变得更加智能。”

在加州大学伯克利分校研究机器人和AI的尼古拉斯·莱茵哈特也支持机器学习。他说,巴特博士的方法确实表明你可以结合这两种方法,但他不确定这是否有必要。

在他和其他人的工作中,仅机器学习系统就已经可以预测未来几秒钟的概率,比如另一辆车是否有可能让路,并根据这些预测做出应急计划。

巴特博士回应说,你可以用数百万公里的驾驶所积累的数据来训练一辆汽车,但仍然不能确定你已经涵盖了所有必要的情况。在许多情况下,从一开始就将一些规则写入程序可能更简单、更有效。

对于这两种策略的拥护者来说,问题本身超出了自动驾驶汽车的范围,也不再局限于AI的未来。马库斯博士说:“我不认为我们现在采取了正确的方法,机器学习已被证明对某些事情很有用,比如语音识别,但它实际上不是AI的答案。我们还没有真正解决智能问题。” 

如果真的如此,机器们似乎还要从七个月大的孩子身上学习很多东西呢。