Gary Marcus,他是一名成功的科学家、畅销书作家、企业家,以及 Geometric Intelligence (被优步收购的机器学习初创公司) 的首席执行官和创始人。作为一名作家,他经常为「纽约客」和「纽约时报」撰稿,并且是四本书的作者。作为纽约大学心理学和神经科学教授,他在人类和动物行为、神经科学、遗传学和人工智能等领域发表了大量文章,并经常刊登在 Science 和 Nature 等期刊上。
在这次的采访对谈中,Gary Marcus 与机器之心 (Synced) 开展了关于深度学习以及人工智能整体发展的谈话。
(以下为对话原文,机器之心做了不改变原意的整理。)
您能总结一下您 2018 年的研究工作吗?
我在 2018 年最重要的工作是写了一系列论文,概述了深度学习的局限性。人工智能现在的大体状况,我认为并不像大多数评论所说的那样。我写的两篇主要文章一篇叫做《Deep Learning: A Critical Appraisal》,另一篇是《Innateness, AlphaZero, and Artificial Intelligence》。它们都可以在 arXiv 上免费阅读。第一篇已被广泛阅读,我认为 AI 领域的每个人似乎对其持有意见。第二篇不太好读,但我认为这一篇也很重要,值得一谈。
第一篇试图阐述深度学习的局限性,并指出了 10 个问题,主要是关于深度学习依赖大数据并且归纳能力不很糟糕的问题。第二篇文章是关于先验知识以及其应该如何纳入 AI 系统中的问题。我想这是一种历史重现,这个现象在人工智能的早期就出现过。那时人们几乎在所有的应用中试图引入 AI,系统想从头学习几乎所有东西,但是几乎没有什么效果。在这个领域存在一种错觉,大家好像都认为只要从零开始学习就能实现真正的智能。这几乎是所有人对 AI 领域的偏见。深度学习最近取得了不错的成绩,但人们必须了解这些结果是什么以及有哪些限制。从根本上说,我认为实现智能和很多层面相关。我们已经构建了一些可以实现智能相关的系统,但是在很多其他方面,人类的表现远比机器好。我们需要理解这是为什么,因为它是解决方案的一部分。
如果用一个词来描述过去一年的人工智能发展,您会选择哪个词呢?
用一个词来概括很难做到,但我想我会选择「overhyped」(吹嘘过头/炒作过度)这个词。
在过去一年中,您经常批判深度学习的局限性。您一直在与很多人争论,尤其是大学教授或其他大公司的研究人员,特别是 Yann LeCun,请问您为何如此着迷于批判深度学习呢?
我与 Yann LeCun 的 Twitter 战争只是我所做的一小部分。我的背景是认知科学家。当我还是一个小孩的时候,我尝试了计算机编程并对人工智能感兴趣。但后来我的毕业作品是关于人类认知研究的,其中部分原因是我觉得人工智能并没有取得多大进展。当我从人类认知发展的角度看待当前的人工智能时,就会思考对于同一个问题孩子们是如何学习的呢?我有两个孩子,一个四岁,一个六岁。我对 AI 现在能做到的事情感到非常不满意。因为没有 AI 能像我四岁或六岁的孩子那样聪明。虽然 AI 确实可以在某些任务上表现良好,但是任务范畴实际上非常狭窄。每天我都将白日里观察到的工作中 AI 的状态与晚上在家时我孩子们的状态进行对比。我认为深度学习是被过度炒作了。作为认知科学家,我也会从人类认知的角度去思考深度学习常用机制背后的原理,这些机制的好处我认为有很大一部分是让人感到困惑的。
曾经有一个术语,我猜它可能来自古希腊人,称为「合成谬误」。它的意思是当你在一个案例中找到了一些正确的规律,然后你会自动认为这些规律在所有情况下都是成立,我认为这就是深度学习研究的现状。很多学习哲学的学者通常使用一些不那么正确的论证,而这正是哲学家所做的,并且其中一个让论证变得不那么正确的原因是由于过度概括。而深度学习,就是一个被过度概括的案例。如果人们发现某些方法适用于某些问题,并假设因为它适用于某些问题,所以它将适用于所有问题,那就是胡说八道。
事实上,我们可以系统地看待深度学习效用的问题。深度学习非常擅长图像分类,非常擅长标记单词,尽管并不完美,但表现已经非常好。不过深度学习不是很擅长理解场景。
你在推特上看到的一些辩论是由我发起的,因为我注意到这个领域正在发生变化,但是人们并不喜欢。因此,多年来我一直在说,深度学习是浅薄的,它自身并不能真实地反映出事物的运作方式或它们在世界上的作用,这只是某种统计分析。Yoshua Bengio 作为深度学习的先驱之一,也得出了相似的结论。所以我说,看看,Bengio 说的实际上和我在 2012 年所说的一样。这就是真正牵扯出那一系列 Twitter 辩论的原因。
而且我认为这对几个方面都很有启发性,一个是关于 AI 领域如何运作的社会学。现在像 LeCun 等人基本上基于我个人资格来攻击我,而不是基于我的论证。这绝不是一个好兆头。我认为当人们在论证中发表观点时攻击的是对方而并不是反驳观点,是因为他们没有一个好的论据,我感觉我和 LeCun 的辩论就是这样的情况。他也歪曲了我很多观点,所以我在 12 月份在 Medium 上写了一篇文章,指出了他歪曲我立场的地方。
我想表达的不是深度学习本身很糟糕,而是只有它本身还不足够。因此,对于我刚刚概述的这些问题,例如深度学习对图像分类是有益的,但对于其它问题来说并不是。我想到的一个隐喻是工具包,我认为将深度学习作为多种解决方案中的其中一种工具是很好的。我认为,如果没有了其中一种工具,你就无法建造整栋房子。
那请问您现在与 Yann LeCun 的关系是什么呢?
我认为我们是亦敌亦友。虽然当他歪曲我时,就会更倾向于敌人那部分,我不认为朋友应该互相歪曲。如果你观看 2017 年我们在 YouTube 上的辩论,会看到我们当时相处得很好,之后还与一群人共进晚餐。我们聊了一整夜,很棒。但是我觉得他现在变得更倾向于一种戒备状态,并且产生了一些攻击性。我们确实在 12 月中旬进行了一些交流,当时我列出了我在 Twitter 上放出的我认为同意的观点和不同意的观点。
所以您是否曾在辩论中改变或调整过您关于深度学习的观点呢?
你可以阅读我在 2012 年在纽约客中写的那篇文章。我想我仍然支持我在那里所说的内容,基本上说的是深度学习是一个非常好的工具。这篇文章叫《Is「Deep Learning」A Revolution In Artificial Intelligence?》,我说深度学习对某些问题非常有效,但它对抽象、语言处理、因果推理等等方面并不是很有效。从这个意义上讲,我认为我的立场没有改变。
我认为人们对于如何利用深度学习非常聪明。这几乎就像是你拥有的只是一把螺丝刀,但你可以尝试将所有一切问题都转化为一把螺丝刀可以解决的问题。人们一直很擅长这一点。例如,人们已经大量尝试使用深度学习来使旧视频游戏具有更高的分辨率,这是一个非常聪明的应用案例。深度学习中还有很多非常聪明的应用,这肯定会对世界产生很大的影响,但我认为它并没有真正解决人工智能的根本问题。
您是混合模型的不懈倡导者,混合模型利用了经典符号系统和深度学习的优势。您能否给我们一些这方面的研究实例?
我不认为我想要的东西存在于 AI 中。我认为最好的例子实际上关于意识的泄露。所以如果你还记得 Daniel Kahneman 关于系统 1 和系统 2 认知的工作(https://bigthink.com/errors-we-live-by/kahnemans-mind-clarifying-biases),这有点类似。我们有不同的系统来解决不同的问题。他的版本是我们有一个自动工作的反射系统,以及一个通过推理工作的审议系统。你可以争论其中一些细节,但我认为背后的一般直觉是正确的。我们谈论的与心理学相关的另一件事是:自下而上的感知 vs 自上而下的感知。因此,任何心理学教科书都会告诉你,许多实验也指向这个方向,那就是我们可以自下而上地感知、我们可以识别像素等。
但比如,我现在正在通过视频会议看着你,如果你截取屏幕截图,你的眼镜中会出现一些小方块。这些看起来像电脑屏幕的小矩形实际上是屏幕的映像。实际上,如果我能够足够仔细地观察它们,我会看到我自己。但我也并不认为我存在于你的眼镜里。如果基于自下而上的感知,像素点似乎与你眼镜中的两个 Gary Marcus 的图像是一致的,但从我自上而下的感知认为这是不可能的。首先,除非我有一个长得完全相同的双胞胎,否则不可能有两个 Gary Marcus。然后他们坐在你的眼镜里太小了,而且他们太模糊了。因此,对这件事的更好解释是,它们是我无法看到的显示器的反射倒影。我看到你,而不是显示器。我把对这件事的解释合并在一起。就眼镜、反射、镜子等实体而言,这更像是经典 AI,而不是像素的简单分类。当然,我无法从数据中学到这一点。在你的眼镜里,我的映像或其他什么都没有预先贴上标签,所以我不能以同样的方式做到这一点。
因此,神经科学或心理学或认知神经科学(不管是什么名称吧),它们都告诉我有不同的视觉途径。我正在使用的当然有我从像素中获得的所有信息,但我也同时运用了我对这个世界的认知,例如眼镜是如何工作的、反射是如何形成的、人的大小等等,以便将所有信息都综合在一起。然后我正在看着你,我试着做一个分析,『他正在点头』。因此我认为他理解我在说什么,或者如果他看起来很迷糊,那么我会改变我的谈话进一步解释来解决对方的疑问。可我们现在没有能够做出这样判断的工具。我作为人类向你描述它的方式至少涉及概念,比如眼镜和反射等概念,所以我认为可以将这两个东西放在人工智能中,就像它们在人类进化中融合在一起一样。
如果你问我有没有人知道一个非常好的代码库正在为他们的商业产品做着这方面的融合,答案估计是没有。我想我们仍然需要做一些探索。我曾经写过一篇关于神经科学还没找到它的艾萨克·牛顿 (Isaac Newton) 的文章。这个观点也可以扩展到 AI,我也不确定 AI 是否已找到它的艾萨克·牛顿。我们已经拥有了一些基本的机制体系和想法,但我们并不真正理解它。因此,人们实际在某种程度上编写的代码或几乎所有人用 AI 写的东西都是脆弱和狭窄的,它只适用于它所构建的环境,但无法去适应别的。而对于人类而言,专家可以适应各种与他们所看到的或他们所已知的内容略有不同的事物。即使不是专家,当我们进行对话时,如果我告诉你一些新闻和不寻常的事情,你也可以适应它。比方说我告诉你,有人从一个非常大的梯子上掉下来,你就会开始想象到这个场景发生的状况,即使你从未真正置身于这种情况之中。
您认为最近哪些研究工作有着巨大潜力?
不能很精确的说吧,但是我认为有一些事情正朝着良好的方向发展,例如图网络等。人们至少接受了这样一个事实,即知识的结构不仅仅是一个很大的载体,而且是一长串的数字。我认为没有人解决过这些问题,但至少他们现在正在努力认真地对待这些问题。这让我们考虑到更广泛的模型类型,我认为这就是我们需要的。
请问您 2019 年的研究工作重点是什么呢?
我对机器人技术非常感兴趣。关于这个我不会说太多。但是我认为机器人技术是一个很好的领域,因为它可以测试很多例如常识推理的想法,比如你如何推理世界运作的方式。如果你要建造一个人们几十年来一直在谈论的家用机器人,它可以在家里自由行走,走到厨房走到客厅,它可以捡东西或者以各种方式帮助人们,那么你必须深层次地了解这个世界,而不仅仅是处于肤浅的层面。
因此,深度学习的另一个问题是它通常可以在 80%的情况下起作用,然后在 20%的情况下产生奇怪的错误。当你推荐东西时,如果你使用的是推荐引擎或图像标注,那么成本非常低。如果我标记了一堆照片出现了一个错误,这可能没什么大问题。但即使是图像标记,如果是在一个容错率极低的场景设置里出错那可能也会带来很大问题。
家庭环境是最不希望出现差错的地方。你不希望机器人碰到桌子上的蜡烛,然后着火。所以你必须让人工智能以可靠的方式运作。因此,我正在撰写的书,或者说与 Ernest Davis 刚刚一起完成的书,是关于如何制作值得信赖和可靠的 AI 的。这需要让机器拥有足够的常识,它们可以通过行动后果来思考,这样机器人才算是真正具备智能。
您对 2019 年人工智能的发展有何期待?
我不期待任何巨大的进步,但巨大进展也是可能的。如果有大的进展,我们可能不会立即听到它们,因为采纳一个好主意并将其付诸实践需要时间。因此,类似地,我期望在 2019 年,你能够问 AI 系统更多、更广泛的事情,比如亚马逊的 Alexa 和苹果的 Siri 等。很多这样的企业今年没有着重展开与机器的真实对话。但是有很多尝试是在家庭环境里配备某种机器人,不过这些机器人现在还相对简单和粗糙,但我们会看到这个领域之后的进展。我不知道我们是否会看到人工智能发生重大改变,不过这是可能的。去年有足够多的人认识到深度学习的范式是有局限的,也许有人会真正解决这个问题并想出一些新的东西。
您对中美之间开展人工智能技术的竞逐有何看法?如果美国计划限制人工智能出口,那将如何影响人工智能的整体发展呢?
竞逐已经开始了。中国做的事情比美国做得更多。我认为美国是更有历史优势的。美国具备更好的研究生教育体系,可以促进创造力和创新等。但是现在,美国有一位总统,他以自己的方式狭窄地专注于自己所认定的道路。他并没有在培育科学和技术,这很不好。例如,我们一直在拒绝许多高质量的移民。拥有高质量移民是我们一直以来做得很好的原因之一。所以我认为,只要现任总统在任,我们就做得不好。另一方面,我认为目前中国的领导层对人工智能非常感兴趣,显然是投入了大量资金。
在过去一年中,人工智能出现包括数据泄漏、人才稀缺、模型偏见、可解释性、执法等问题,您最关心哪一问题?能否就此问题说说您的看法?
我现在最关心的问题,也是我的新书将要涉及到的,是 AI 还不是真的可靠。如果你在一个真正需要可靠性的任务中使用不可靠的东西,你会遇到麻烦。比方说用人工智能分类人们的工作申请、控制武器或者人们可能会想到的任何应用场景。如果在这其中的 AI 并不可靠但我们却依赖它,那么我们就会遇到问题。我的基本观点是,现在 AI 不可靠,这不是你可以在开放世界中使用的东西。我们现在拥有的最好的技术还属于狭隘的技术,适用于非常具体的问题,例如规则永远不会改变、你可以根据需求收集尽可能多模拟数据的场景。而当你把这些东西放到开放世界中,例如让它们驾驶汽车,虽然它们也可以工作,但你不能真正依赖它们。
在某些情况下,人们无论如何都会使用到它们,并且可能导致事故和死亡。在某些情况下,我们可能会推迟 AI 被应用的时间点。还有一个次要问题是,人们可能实际上已经放弃了人工智能,这由于一系列问题,比如构建聊天机器人和无人驾驶汽车等任务比炒作所说的要困难得多。但是我想很多人都认为我们到 2020 年将拥有无人驾驶汽车,可以将它们作为原型,但我们还不能指望它们。而且目前尚不清楚还要花多长时间才能达到真正可以依靠它们的程度。
因此,如果我们到了 2025 年,仍然需要人类进行演示,人们可能会厌倦人工智能,或许会开始减少资金投入,谁知道会发生什么呢?与此同时,如果有人说他们要在我家附近试行无人驾驶汽车,我会很担心,因为我认为无人驾驶汽车还不值得信赖。它们大部分时间都在工作,但你不知道它们什么时候就会做一些奇怪的事情。它们不会预先告知你,但就是这么做了。