机器之心

首页 > 思想 > 人工智能末日:老掉牙的好莱坞幻想,还是人类的最终宿命?

思想

人工智能末日:老掉牙的好莱坞幻想,还是人类的最终宿命?

2016-10-21 17:44:58         
0 0 0

为了庆祝Digital Trends开办十周年,我们发表了系列文章DT10,这些文章探讨了过去10年中技术如何改变我们生活的每一个方面,从食物到电影到约会 ── 和接下来的10年会有什么。而本文则展开了其中最为引人注目的问题。── Simon Cohen


为什么在电影中每次人类开发出一个非常聪明的计算机系统,它都会打算抓住机会杀死我们每一个人?

Stanley Kubrick 的杰作《2001太空漫游》 中,USS发现者一号上的 HAL 9000 开始是一个细心周到、多少有些不同寻常的宇航员管理者,后来却变得有杀人倾向并试图杀死所有人。在《黑客帝国》中,人类发明的人工智能迅速引发人机战争,导致人类作为机器的生物能源被奴役。在 Daniel H. Wilson 的书 《机器人启示录》 中,计算机科学家终于破解了关于人工智能问题的代码,最终他们自己创造出来的东西却对它们的创造者产生了一种意想不到和深深的厌恶。

Siri 是不是只要在经过几次升级就能杀死睡梦中的你?

如果你没有听说过天网(见电影《终结者》系列)的故事,你还不会太有感觉。

简单的答案是── 尽管是像 《机器人总动员》、《霹雳五号》 和《超能查派》 这样的电影── 好莱坞知道,没有什么能比威胁所有人类的生存的题材更能保证票房的了。无论这种威胁在现实生活中是否可能,这都是无所谓的。不然还有什么可以解释电影里那些无尽的僵尸游行,更不要说那些讨厌的、有鲨鱼出现的龙卷风?

现实的人工智能与电影一点都不同。Siri、Alexa、Watson、Cortana── 它们是我们的 HAL 9000,没有能与谋杀沾上哪怕是一点点边。这项技术在过去十年中已经突飞猛进,似乎有望最终与我们的艺术家几十年来在电影中描绘的愿景相匹配。然后怎样呢?

Siri 是不是只要再经过几次升级就能杀死睡梦中的你?或者好莱坞又在捣鼓一个陈旧的idea?回顾过去十年的人工智能研究,有助于我们更清楚地描绘一个有时可怕有时明朗的未来。


失控智能的危机

关于人类继续研究人工智能的真正危机的话题越来越突出,很多人都在议论。

其中最主要的是 Nick Bostrom 博士,一个哲学家,并同时拥有物理学和计算神经科学学位。在他2014年的《Superintelligence: Paths, Dangers, Strategies 》 一书中,概述了一个在各方面都很“强”的人工智能── 如果我们能成功的建立一个── 一旦它逃脱我们的控制,会将我们从这个星球上消灭掉。把核毁灭忘了吧──这就是权力饥饿的人类独裁者去处理一群不想要的人。不,一个强大的人工智能耗尽我们所有的自然资源让我们饿死,或者,如果它真绝望,将我们的身体拆解成水分子,并使用所得到的生物量达到自己的目的。

nick-bostrom-1200x9999.jpg

在加拿大温哥华举办的2015 TED 讲座上,Nick Bostrom 博士警告人工智能失控的潜在危险。(照片:Bret Hartman/TED)

但是不要把它放在心上。正如 Bostrom 指出的,超级人工智能可能不会根据任何人类的道德或伦理观念来行动。「拟人化的框架提倡鼓励了人们对人工智能发展轨迹以及超级人工智能心理、动机的成熟的毫无根据的期望」,他说。

不要让 Bostrom 学术化的语言欺骗你── 他很严肃地提到超级人工智能超过人类智能的后果,并认为它们没有一个是好的。更可怕的是,他说我们可能会从兴奋地庆祝创造出第一个能和我们一样思考的人工智能沦落到畏缩在角落里,因为它会在短短几个星期甚至几天内猎杀我们 。这一切都归结为几个关键因素,可能会影响我们与人工智能的未来。

一旦人类设计出人工智能,它就会摆脱人类的控制,并以不断增长的速度发展。

计算机思考的非常快。在最佳情况下,我们将有足够的时间,在人工智能获得与我们一样思考能力与它达到超智能地位之间做出相应的调整和响应。另一方面,正如 Bostrom 指出的,当你面对一个可以思考的机器时── 并因此发展出── 以无法想象的快速,当我们意识到发生了什么再去阻止它,就已经太晚了。一些读者可能记得20世纪70年代科幻恐怖电影 Demon Seed,其中一个 AI 不仅预言它会被它的可怕的创造者关闭,而且制造抢劫和谋杀以确保自己的生存。

「如果人工智能腾飞的事件发生,」Bostrom 说,「它很可能是爆炸性的。」斯蒂芬·霍金回应了这种情绪:「一旦人类设计出人工智能,」他说,「它将自己腾飞,并以不断增长的速度发展。人类受到缓慢生物进化的限制,不能与之竞争并被取代。」

计算机通常会产生意外的结果。人工智能研究人员经常对他们的实验结果感到惊讶。在2013年,一个研究人员发现他的人工智能── 为学习玩 NES 游戏而设计── 以暂停游戏作为它在玩俄罗斯方块中的首选解决方案,因为它的目标是不输。

在我们开发人工智能的早期阶段,这是一件好事;惊喜常常导致新的发现。意外的结果与大规模的智能突然增加可能是完全相反的。如果能够预测超智能人工智能响应的方式,那么任何东西都可以被证明是不可能的,同样的道理我们的行动和动机是完全不可能被一只昆虫猜透的。


强人工智能,弱人工智能,以及我们正在用的东西

人工智能研究有时类似于寻找圣杯。在1956年的夏天,人们相信我们可以创造强人工智能(又叫通用人工智能),它被认为可以模仿人类智力的所有形式、功能和微妙之处。达特茅斯大学的研究人员认为,如果他们能够赋予计算机人类智能的基本模块── 推理、知识表达、规划、自然语言处理和感知── 那么通用的人工智能就将会出现。

显然,这件事没有发生。事实上,在过去的几十年里,人工智能研究有几个繁荣和萧条周期(通常被称为「人工智能寒冬」),通用人工智能的研究将一些模块向前发展,但是在初始兴奋期之后没有显示出持续的进展。

实际发生的事情是在每个模块内部的各自发展,结果出现了不同种类的「弱人工智能」或应用型人工智能。

人工智能不仅仅存在于未来的预见中。自2015年起,谷歌一直在使用它来改善搜索结果。(视频:谷歌)

谷歌搜索引擎可能是最出名的弱人工智能的例子。它的算法完成了超乎寻常的工作,把数百个变量组合在一起,并将这些变量与你输入的单词结合起来,从浩瀚的网络中产生一个结果页面。

事实上,过去10年的大多数人工智能的例子可能并没有使你意识到这是人工智能,这也恰恰意味着它们的成功。它们大多都静静地、无缝地融入了我们的生活,在小却重要的方面使我们的生活变得更好。

Google Photos 这个产品显示了我们对感知型人工智能发展现状── 键入「自行车」,它会找到你拍摄的两轮车的照片,即使你从来没有这样标记它们。

我们在手机上输入时显示的预测文本选项节省了我们宝贵的打字时间,而自动更正弥补了屏幕键盘和人类拇指大小的不匹配的问题(它的帮助使我们感到方便 )。

下一大步,将是『设备』的概念逐渐消失。

亚马逊的「为您推荐」产品推荐功能是一个人工智能用于赚钱的例子。据报道,该功能的贡献度在2006年的亚马逊公司销售额中占了35%,而该技术背后的人也将其提供给其他零售商,从而实现了总计数十亿美元的销售额。

来自苹果、谷歌、亚马逊和微软(Siri,Google Now,Alexa和Cortana)的所谓智能助手都利用自然语言处理(NLP)的最新进展,结合复杂的启发式算法,能回答如「今天天气怎么样」等问题,可以不用人工操作就跳入天气应用程序或搜索相同的短语。谷歌的首席执行官 Sundar Pichai 最近宣称他们公司的 NLP 人工智能正在接近人类的理解水平,这大概解释了为什么他告诉股东们「下一大步,将是『设备』的概念逐渐消失。」

Waze GPS 和众包地图应用程序是人工智能规划的一个很好的例子。

最近,聊天机器人(chatbot)已经成为被讨论最多的人工智能形式。2014年,英国雷丁大学宣布,在图灵测试(Turing Test)这个概念出现65年后,终于有一个算法通过了测试,它伪装成一个13岁的名叫 Eugene 的乌克兰男孩。Eugene 是一个聊天机器人── 一个不错的用户名──但尽管通过了测试,它仍然不是一个真正的强人工智能的例子。Cleverbot── 另一个人工智能聊天机器人── 据说在2011年就已经通过了图灵测试,可以与任何人聊天。不过是否标记它为「智能」,可能取决于你对词的定义。

我:你相信上帝吗?

Clev:你相信吗?

我:这不是一个答案。

Clev:你没有问一个问题。

我:这是一个问题。我问了:你相信上帝吗?

Clev:是的,我相信。但是你为什么不相信?

我:为什么你认为我不相信上帝?

Clev:因为你说了你不相信。

我:没有,我没说。你不是一个很好的听众,不是吗?

Clev:好啦,好啦。我知道你说了。但是那又怎样。你喜欢 Lady Gaga 吗?

不管是图灵测试本身,还是它已经通过的那些断言,都不是未经讨论的。

在今年早些时候,微软发布了 Tay ── 一个人工智能 Twitter 聊天机器人,当猝不及防地出现在全球观众面前时,微软明白了一个聊天机器人可以在一个引人注目的时尚活动中显得多么可笑。在开始与观众互动不到24小时后,她 ── ── 它,变得性别歧视和种族主义,竟然对希特勒和其他罪犯表示赞美。

ibm-watson-jeopardy-xxlarge-2560x9999.jpg

从左到右,Jeopardy 主持人 Alex Trebek 与传奇的参赛者 Ken Jennings,IBM的 Watson 超级计算机和 Brad Rutter。Watson 在后来的决胜关头彻底击败两个人类选手。(照片:Jeopardy Productions)


Watson 在哪?

如果人工智能行业有什么名人的话,非 IBM 的 Watson 莫属。在 2011 年轻松打败了史无前例的 Jeopardy!  (编者注: Jeopardy! 是梅夫·格里芬在1964年创建的美国的电视智力竞赛节目)冠军 Ken Jennings 之后,这个超级计算应用放下了话筒,在一些不那么引人注目的商业应用领域开始了新的尝试。但是 Watson 的胜利促使很多人开始想知道 IBM 神童是否其实是一个胚胎版的 HAL 9000 (出自《2001 太空漫游》中的拥有强人工智能的超级电脑)。IBM 认知计算部门副总裁 Guru Banavar 将其归在了一个完全不同的类别下。

「我们将 AI 看作是增强智能(Augmented Intelligence),与人工智能(Artificial Intelligence)相对,」 Banavar 告诉 《Digital Trends》。他认为,把人工智能的概念看成人类大脑的复制体是一种干扰,完全忽略了该技术如何能被最好地投入使用的。「增强智能是一个人与一台机器之间的合作,」他解释道,其目标是使人类摆脱掉那些做起来逊于机器的工作。它形成了各种各样的共生关系,使得1+1>2。

增强智能是一个人与一台机器之间的合作。

IBM 将这种人工智能的实现方式称为「认知计算」,尤其是因为它并没有寻求去复制全部的人类智能。IBM 解决 Jeopardy! 问题的方式不是围绕于制造一个合成大脑,而是让一台机器来处理一种十分具体的信息类型── 语言── 从而为该游戏的反问句寻找并最终生成正确答案。为此,Banavar  回忆了 「过去将近 10 年间」所做的改进。只是为了要让 Watson 了解到英语中排列组合导致的不同含义,其所需的语料数量之大,是令人怯步的。它最后的成功是「整个计算机科学领域的一大突破,」Banavar 说。 

IBM 仍在继续开发  Watson 及人工智能领域的其他项目,追求着 Banavar 口中的「大挑战」。这些计算问题如此困难且复杂,他们往往需要几十个研究人员以及一笔笔持续数月或数年的投资。或者,正如 Banavar 所说:「不是你和一些家伙在车库里就能做出来的事。」

Watson 在 90 个 IBM Power 750 服务器上运行,每个服务器使用一个 3.5 GHz 的 POWER7 八核处理器。(视频:IBM)

其中一个挑战是阅读医学图像。这个系统正在夜以继日地分析大量 X 射线照片、CT 扫描、PET 扫描和核磁共振成像,这对病人来说是一个潜在的救命福音,但它也成为放射专业一个日益严重的问题。目前,一位放射科医生必须亲自评估每张扫描图来寻找疾病或其他异常情况的迹象。扫描产生的大量照片正在不断扩大对训练有素的放射科医生的需求。 但目前现有的发射科医生由于需要严格而冗长的入职培训,数量十分有限。Banavar 描述他们所做的工作是「非常单调且容易出错的,」不是因为这些医生缺乏能力,而是因为他们只是人类。这看起来几乎是为 IBM 所一直致力的人工智能类型而定制的一个场景。为了提高审阅片子数量和质量的能力,研究人员正在使用 Watson 在已知病人病历的情况下来了解图像内容。「未来两年内,」Banavar 说,「我们将在这一领域看到一些非常重大的突破。」


让机器能够学习

IBM 要想成功就必须解决一个问题,这个问题从一开始就一直局限着人工智能的能力:计算机往往以已知的方式去遵循给定的指令,这样,当有例外发生时── 开发者没有预见到的一种情况── 它们照常处理,通常会出现不良结果。但是,如果机器能够在不被明确定义的情况下知道某一情况不符合正常情况,并做出相应调整,会怎样呢?换句话说,如果它们拥有常识呢?

Maya Gupta 博士是谷歌的高级人工智能研究员,而她正试图做到这一点。利用人工智能兵工厂中一个广为所知的机器学习的工具,Gupta 和她的同事们正慢慢训练着计算机以一种多数人认为较简单的方式来过滤信息。她目前的目标── 优化 YouTube 的视频推荐── 这或许看起来微不足道,甚至乏味,但以人工智能研究者的角度来看,这就是涅槃。这是由于机器和人类之间在学习方式上的根本区别所致。

如果你没有十亿个样本,机器就无法开始学习。

「一个 3 岁小孩可以从非常少的例子中学习到大量的东西,」Gupta 说。对计算机来说却不是这样,它需要大量的数据才能达到同等水平的理解力。它也需要大量的计算资源,这也是为什么英伟达最近推出了一种专门运行深度学习算法的新型超级计算机。

奇怪的是,计算机科学家们几十年前就已经知道如何「教」机器。缺乏的是所需的数据。「你可以拥有一个从十亿个例子中学习的模型,」Gupta 说,「如果你没有十亿个样本,机器就无法开始学习。」这就是为什么拥有庞大视频目录的 YouTube 是滋养一种依赖数据的处理方法(比如机器学习)的完美之地。Gupta 的算法正在教授两种类型的常识── 平滑度(smoothness)和单调性(monotonicity)。这二者都像是儿童游戏:平滑度指示你不该由于一个小变化而放弃先前基于几十个其他因素所做出的决定,而单调性则运营一个原则── 「只有一个是最佳选择,其他的都是平等对待」。

在实践中,平滑度意味着一个合理的视频推荐算法推荐和烹饪相关的视频时,不会放过那些同时包含烹饪和旅游的视频,而只推荐只包含烹饪信息的视频。而对于单调性,Gupta 引用咖啡店推荐为例。如果你已经确定了你喜欢那些供应有机、平价的咖啡以及提供免费 Wi-Fi 的咖啡店,那么最接近你的目前所在位置的咖啡店就会出现在推荐名单顶部,即使你从未提出考虑距离。「仅仅是实现其中的一个难度就会令一些人感到惊讶了,」Gupta 谈到在教机器遵守那些任何一个 5 岁的小孩都能做到的模式中所付出的努力时这样说到。

project-malmo-katja-hoffman-2560x9999.jpg

微软研究员 Katja Hofmann (中间)正在教机器玩《我的世界》,作为企图改善人机合作的平台 Project Malmo 的一部分。


在《我的世界》中挖掘知识

尽管音乐推荐可能取得推荐视频差不多的成功,算法在音乐推荐方面却遇到了困难。「很难把知识从一个领域迁移到另一个领域,」Gupta 承认道,她称其为一个行业的挑战,不仅是谷歌。那么除了拥有常识之外,你如何教一个人工智能变灵活?微软剑桥研究院的机器智能与知觉(Machine Intelligence and Perception)小组的一名研究员 Katja Hofmann 博士认为她知道答案:教它如何玩《我的世界》(Minecraft)。

实验已经表明,人工智能代理能够完成那些对人类来说实在过于困难的任务。

Project Malmo 是 Hofmann 企图赋予大规模流行的在线游戏一个新用途── 一个用于人工智能研究的实验平台── 的一个尝试。她的团队已经开发了一个修改版的游戏,可以让人工智能「代理」直接与《我的世界》环境交互。

《我的世界》真的非常有趣,因为它是一个向全世界开放的游戏

Hofmann 告诉我们,它提供了一个独特的空间,使得人工智能代理可以应对随时间而变化的不同环境,这是培养灵活学习的一个关键点。这一方面,《我的世界》在早期让代理实现目标的尝试中引发了一些问题。「世界不会等代理来作出决定,」她说,她指的是游戏的实时性及其与现实生活的明显相似之处。

利用一个 mod (Malmo 用Java语言编写的模块)他们不仅使代理能够处理游戏环境的核心、类似乐高的砖材料── 它也可以与其他玩家互动,包括人类。Hofmann 的 Project Malmo 长期目标之一是改善人机合作。就像在 IBM 那样,哲学家推动这些实验,而事实上微软的整个人工智能方法就是与人合作。实验已经表明,人工智能代理能够完成那些对人类来说实在过于困难的任务。Hofmann 急切地期待着一个学习去与人类合作来解决问题的代理。「这将意味着我们已取得一个重大突破,」她说。

新的突破可能来自合作开发。今年早些时候,微软决定开源  Project Malmo,此举可能会产生重要发现,尤其是在微软竞争对手感兴趣的情况下。IBM 的 Watson 已经证明了它在  Jeopardy! 中微不足道的成就,但是当它被要求不用砖块建造房子时会如何应对呢?在谷歌,DeepMind 背后的团队已经成功让一个算法来学习如何玩《 Space Invaders! 》── 一个拥有单一目标的游戏,来获得最多分数。该游戏只有三个控制按钮:向左、向右移动以及开火。这是否就是 Hofmann 一直试图想要达到 Minecraft 成功所需的灵活性?


创立机器人乐队

通过人工智能,我们已经实现了将逻辑、推理和暴力的数学计算应用到工程、医学和任何有意义的研究上的挑战。但是艺术呢?人工智能可否在创造美的过程中发挥作用,无论是电影、雕塑还是音乐?谷歌决心找到答案。

谷歌最近展示了在 DeepMind 人工智能平台使用一个叫做 DeepDream 来实现近乎迷幻的图像与视频变换。处理你最喜爱的照片是一个有趣而令人着迷的事情,但它似乎缺乏那个我们通常将其视作「艺术家」才有的自主创新过程。可能将图片工具解释为添加兴奋剂的 Instagram 过滤器更为恰当。

dream_95e148a617-720x720.jpg

谷歌的 Deep Dream Generator 利用神经网络将照片重新诠释为迷幻艺术作品。

谷歌的一位研究科学家 Douglas Eck 博士在他第一次看到 DeepDream 时就被吸引了。他当即认出这是一种强大的机器学习,或是「值得拥有的神经网络」他说。但是 Eck 同时也被其他一些东西吸引了:「这东西可以很有趣。」因此 Eck 决定游说谷歌的高官让他建立一个小团队来了解机器学习如何能在艺术世界里得到进一步的提升,只是这次它会致力于音乐,一个 Eck 一直热衷的领域。「我非常高兴,」Eck 回忆说,「谷歌批准这个研究是正确的,」然后 Magenta 诞生了。

「你如何建立可生成『音乐』并可鉴别音乐好坏的模型。」

生成音乐不是一种新算法。你可以了解一些 Eck 他个人在 2002 年于蒙特利尔大学时期对此做出的努力。「问题是,」Eck 说,从哲学上看,「你如何根据其听众的反馈来建立可生成『音乐』并可鉴别音乐好坏的模型,然后改进它?」开始, Magenta 像是要去引领一波听觉上可怕的、全新的计算机合成的 Muzak 风音乐新浪潮 (编者注:一种节奏缓慢的,让人觉得无聊的音乐,常用于咖啡厅背景音乐),但是 Eck 很快就向我们说明创作音乐不是目的。 他说,「人们最终是想要与人联系。 100% 依赖由机器生成的内容是没有未来的。」

相反地,他将 Magenta 视为创造世界下一把电吉他的一个契机。「我们是否可以建立人工智能工具来帮助人们以一种前所未有的方式进行自我表达?」Eck 憧憬道。他引用 Jimi Hendrix 对放大与变形的标志性使用为例:「这真的为他打开了未曾有过的自我表达的渠道,」他对《Digital Trends》说。

但不同于 Hendrix 的吉他,Magenta 创造的乐器将会是理想的智能化。真的很智能。「你已经可以把一些低音循环丢进 GarageBand 并在高音部演奏了,」他指出。「但如果这个贝斯手真的有一些智能呢?」在 Eck 的未来愿景中,Magenta 代码库将构建一个虚拟的乐队来听你演奏,并能智能化地── 甚至可能是创造性地── 跟随并作出相应反应。「它就像你的副手,」他说。

就像 Project Malmo,Magenta 现在是开源的,如果 Eck 想要实现有关人工智能音乐家组成备用乐队的任何梦想,这是实现它的一个重要步骤。因为 Magenta 是建立在机器学习框架── 谷歌自己的开源软件 TensorFlow── 的基础上,它对数据的渴求令人难以置信。通过开放世界各地的音乐家的使用权限,Magenta 可以得到十分快速的发展。「如果我们能与其他音乐家一同前进,那么目前为学习所呈现的信息量就已经会令人惊讶了,」Eck 兴奋地说。


从音乐到狂妄自大

和我们对话的每一位人工智能专家都对技术可能成为一种信仰抱有极大热情。他们同样也对 Bostrom 的世界末日预言持一致怀疑的看法。他们认为,超级人工智能会在某天开启人类生存危机的概念极有可能只存在于科幻小说,而非科学事实。

「我不相信机器最终会成为拥有独立意识的自动化个体,」IBM 的 Banavar 在被问到有关机器智能需要被控制的可能性时这样说到。他对机器未来的主要关注之处是一个已经困扰程序员多年的问题:由于错误百出的代码而导致的低劣性能。「相较于机器会在某天醒来并做一些出格的事情这种情况,我认为这是一个更大的问题,」他说。

实际上我们在过去的每一个十年中正变得越来越有道德——这并非偶然。

谷歌的 Gupta 提出了一个她认为会阻止强人工智能未来发展的基本障碍:「我们最好的哲学家和神经科学家不确定意识是什么,」她说,「那么我们怎么能够开始谈论『使机器具有意识』意味着什么,或是我们如何去进行意识的数字化复制呢?」我们很难分辨机器是否坦诚或有所隐瞒──许多观察家认为如果当今存在任何致力于人工智能研究的机构可以解决这一问题,那很可能会是谷歌 。给一个足够长的跑道,她相信一切皆有可能「我认为我们可以做到……我想那是在未来 100 年内,」她提议道。「我不确定这将是一件很有趣的事。」

关于实现真正意义上拥有人类普遍水平智力的机器的所具有的难度,微软的 Hofmann 回应了Gupta 的这个思考。「我相信它或许在原则上是可能的,」她说,「然而看看现在最好的人工智能,我不认为我们会在短时间内有可能达到预期中的水平。」

谷歌的 Eck 认为这个话题是恼人的。「超级智能的整个想法,」他说,「它对我来说完全没有意义。我对此没有兴趣,」很难想象此人也正在开发第一个合成音乐的人工智能。但他后来澄清道:「我的认知观与人类的感知和行动是紧密联系的。我不把人类的大脑看做和目前这些在机箱里的大脑或更强大的大脑存在『竞争』关系 。」当被问到何时才能相提并论时,他笑着说,「二十年!」因为,正如他所指出的,这是专家们在他们没有头绪但需要说点什么的时候会给出的通常时间范围。

circuits-dt10-v2-2560x9999.png

像 Bostrom 这样对人工智能超越人类表示怀疑的人并不局限于那些该领域的从业者。还有一些来自哲学界和伦理学界的评论。《Rebuilt: How Becoming Part Computer Made Me More Human and World Wide Mind》的作者 Michael Chorost认为:尽管没有人工智能领域的背景,他对计算机及其代码如何工作有着很深入的理解。他把 Bostrom 的超级智能归为「一本华丽的错误之书」。

Chorost 相信我们或许可以创造出日益强大的人工智能代理,但他不相信这些算法会变得有感知能力且睿智。他将这些顾虑比作爬一棵树,然后宣布我们离月球更近了。像 Gupta、Banavar 和 Eck 一样,他说最大的问题是一个由电路和代码所构成的机器如何能够达到人类的那种状态。他把这样一种想法解释成,类似于我们的身体有一些固有的特殊性,如身体的「水化学(aqueous chemical)」,这种特质是没有任何电子系统能够复制出来的。

人工智能,一种随着时间发展的技术── 由于进化── 将因此是一个亲切而温和的实体。

然而他并没有完全排除这种可能性,而是提供了一个或许可供采取的路线:一个进化的版本。 我们应该让大自然来做这个繁重的工作,而不是试图把意识编入机器中 。「将它置于一个迫使『一个人工智能』进化的复杂环境中,」Chorost 建议道,或许会有作用。「这种环境中应当存在致命的复杂力量,」他说,想象人工智能在一个虚拟角斗士竞技场中竞争的场景:「环境它会淘汰那些低效的系统而奖励高效的系统。」

这种人工智能进化论的另一个好处,如果成功的话,是它能让人工智能具有道德,没有种族灭绝倾向。「道德实际上是建立在进化的运转机制中,」他声称你需要做的所有事情就是看看人性的论证。「尽管发生了两次世界大战,但暴力死亡速度一直在持续下降,」他说。「实际上我们在过去的每一个十年中正变得越来越有道德感── 这并非偶然。这个过程是毋庸置疑的。」Chorost 自己解释说,随着时间发展的任何人工智能── 由于进化── 将因此是一个亲切而温和的实体。因为我们已经在我们所有人身上看到了这个过程。


那么为何担心?

也许 Chorost 是正确的。也许一些构成人类感知能力中的基础要素永远都不能在硅谷复制成功,我们能依靠越来越强大的 Siri 来更舒服地生活,而 Siri 永远不会用它自己的欲望来取代我们的愿望,就像电影《她》中一样。但即使你对有一天人工智能会成为一个存在的威胁这样的想法不买账,Gary Marchant 认为我们应该都更加关注随着人工智能复杂水平的逐渐提升而带来的风险。

根据官方资料显示,Marchant 是亚利桑那州立大学(ASU)Sandra Day O'Connor 学院新兴科技,法律和道德专业的教授。当他不在 ASU 教书后,他加入了国际工程标准组织 IEEE, 进行人工智能开发的法律和道德框架相关工作。当他在离职后,与别人共同发起了项目「自动化机器发展中的控制与负责创新」。 这个项目的资金来源于 Future Of Life Institute── 一个给那些研究或超出研究范围的,关于会对人类造成存在的威胁的局面(包括人工智能)的研究提供资金的组织。这些活动给了 Marchant 以一种鲜有人能拥有的从非常宏观的角度观察人工智能的视角。想知道他的结论?目前有两个地方需要高度关注。

predator-drone-ga-2560x9999.jpg

军用无人机,例如 MQ-9 Reaper,目前只在飞行员远程控制下运行,但人工智能的发展最终会让那些无人机自发杀人。(图片: General Atomics Aeronautical)

「最让我担忧的是」他说,「是军队对人工智能的使用。」目前,美军无人机的武器是远程操控的。尽管在数百里外的地方,飞行员仍然掌控着情况,但总有一天这个局面将会终结。美国国防部先进研究项目局(DARPA)被报道说,对发展能够在电脑系统中识别和修复安全风险的自动化软件机构十分有兴趣。「有足够强大的推动力去发展一个又一个自主化的机器,」Marchant 警告说,因为这是对那些已经制造出比人反应更快的机器,并从中获益的对手来说,唯一有希望成功的反击。「接下来你就会越来越相信这些机器不会做出错误的决定,」他指出,这很糟糕。

如果不是美国国防部的联邦咨询委员会刚刚发布了一个有关自主化的研究支持了 Marchant ,他的忧虑也许很快就会被忽略。研究几乎逐字逐句地重复他的观点:「自主化能力已经逐渐无处不在,因而对于敌人和对手来说也同样易于获得。本研究因此得出结论:我们必须马上采取行动,在加速开发自主化的同时也为应对对手应用自主化做好准备。」

另一个 Marchant 认为亟待检验的人工智能的应用离我们的家庭更为接近:「无人驾驶汽车的进步」他说,「需要更加深思熟虑的发展和更好的法规。」

Tesla 自动驾驶仪使得 Model S 能够在高速公路上无人驾驶,但一系列的车祸证明了它仍不够完美。(视频:Tesla)

「我们最近看到的Tesla,」他所指的是最近跟公司自动驾驶系统有关的车祸和一次死亡事件,他说到:「这是对即将发生的事情的预兆── 人们将因为无人驾驶系统所做的决定而受伤或被杀。」

他强调在人工智能控制的汽车中极少面临着道德决定:「在一个车祸中,谁的生命应该被保护?── 乘客,其他驾驶员还是行人?」这是人们面临的两难问题,包括华盛顿大学的计算机科学家和艾伦人工智能研究所的首席执行官 Oren Etzioni,告诉《连线》:「我们不希望科技扮演上帝的角色。」

Marchant 的态度显然不是恩将仇报:他的大部分拨款来自于特斯拉的CEO 艾隆·马斯克。


那么工作怎么办?

fanucx2760-720x720.jpg

现在,制造机器人严格地按照程序指示进行,但在未来,在工业机器人制造商 Fanuc 的模型中, 它们可以从不断工作中学到更多,就像人类一样。(图片:Fanuc)

在更远的未来,Marchant 看到人工智能取代人工劳动将会产生的很大的问题,一个他认为已经开始发生的过程:「我在和一个病理学家聊天的时候」,他讲述说:「他说他的行业由于机器的应用正在逐渐枯竭。」最近,一个基于IBM的Watson的人工智能雏形开始在全球法律公司工作。人工智能的机器发现和文本审阅的能力,一旦足够先进,可能会影响到年轻的初级律师的工作。Marchant 指出并非只有体力工作受到威胁。「事情会变的越来越大条,」他说,最大的工业机器人供货商 Fanuc 最近通过增强学习,在24小时内就教会了一个实物化的人工智能如何完成一个新的工作。

谷歌的Gupta则持有乐观的态度,说:「更加有趣的故事是那些被创造的工作,」尽管她在列举这些新工作时停顿了一下。她在谷歌的同事Eck 把这件事放在历史(当然,还有音乐)的背景下,指出击鼓机器的出现并没有造成大量失业的鼓手,(或说至少没有在已有数量上继续增加)。「我们仍然还有很多鼓手,他们许多和击鼓机器一同工作,也表演的很棒,」他说。

Marchant 了解了这些观点,但最终,他反驳了它们。那些永远开启,全天候做决定的人工智能将自身放入了一个技术阶层。「在很多事情上机器会比人们做得好,」他指出。「在过去人们总有可前进的空间,但现在情况不是这样了。」「我有些担心我们是不是前进得太快了。」

有趣的是,人工智能领域里最大的参与者们并非对那些观点,以及 AI 未来对社会的影响的忧虑充耳不闻。他们最近集中力量去建立了一个新的非盈利组织,叫做The Partnership on Artificial Intelligence to Benefit People and Society,或简称为 Partnership on AI 。它的成员包括微软、谷歌、IBM、Facebook 和亚马逊。该组织声称,他们的目标是通过开放和合作的研究「解决人工智能科技中的机遇和挑战」。他们对咨询决策机构并不感兴趣,但公众可以对他们不能信任这些科技进步时结束他们的掌控。

令人惊讶的是,Marchant 并没有准备去立即要求更多的法律法规。「我更加担心我们是不是前进得过快,」他说,「快得在我们还不清楚我们要去解决什么问题前就实行法律。」


对人工智能说不

德蒙福特大学机器伦理学的高级研究员 Kathleen Richardson 博士知道她想要明确表达的是:她认为,做出一个有意识的人工智能,或者说,任何设计成模仿生活中的事物的人工智能,都是从根本上存在瑕疵的。「让我们相信机器可以像人类一样的唯一原因,」她说,「是因为过去以及现在都还存在着奴隶制。」对于Richardson来说,将机器作为人的替代,或是其他生命体的替代,是腐败的文明仍想着合理化把人们当作事物看待的副产物。

「我们与其他生命共享着所有权,」她说,「但我们不和人工制造的事物共享」,将这个逻辑反过来,Richardson 不认同我们将会创造出一个有意识,感情的,聪明的算法这个观点。「我完全的,百分百地反对,」她说,也许是因为这种坚持的信念,Richardson没有花太多时间在担忧超级智能,杀手AI上。为什么要去考虑一个不可能发生的未来呢?相反,她集中精力研究当下的人工智能和机器人,以及它们的短期影响。尽管她因为反对有性别的机器人而出名,但实际上她反对任何形式的机器人陪伴关系。

softbank-pepper-robot-3-2560x9999.jpg

Pepper被设计成一个像人一样的伙伴,像宠物一样陪伴在主人身边,而非去执行什么特殊的任务。(图片:Softbank)

「他们说这些机器人── 这些东西── 有帮助身心的效果,」她说,尤其指在前沿的日本市场,它们支持着像软银和索尼这样的重要公司。Richardson 不太认同这种机器人,她认为这不过是另一种对于奴隶的合理化。「如果你和老人家聊天,」她说道,「他们想要的是有一天出去旅游,和其他人交流。没有人会说『我想要的就是一个机器人』」也许Richardson说的是正确的,但这并没有阻止软银的Pepper── 第一个能够读懂人们基本情绪的陪伴机器人── 在1分钟内卖光第一批的1000个产品这个事实的发生。

麻省理工学院的研究者,心理学家和作家 Sherry Turkle 同意 Richardson 的观点。主要原因是她看到了── 和Richardson声称相反的── 对于人工智能伴侣的大量需求,而这一现象让她忧心。在2013年,Turkle 接受了 Live Science 的采访,谈到,「需要某种人工智能陪伴的想法已经成为新的常态。」这一新常态的价值是:「我们必须要改变自身,在此过程中,我们重新塑造了人类价值和人类关系。」

来自 Hanson Robotics 的 Sophia 机器人,已经和真人相似到了令人震惊的水平。(视频:Hanson Robotics)

这对于来自 Hanson Robotics 的 David Hanson 博士来说只是刚刚开始。「人工智能最终将进化到真正成为我们的朋友。」他告诉CNBC。

Marchant 已经加入了这个话题。他认为我们可能只能选择接受这个新的常态,而不是去排斥他。在那篇充满争议的《Slate》文章中,他勾勒出一个人与机器人之间的婚姻不仅仅将是合法,更将是无可避免的未来。「如果一个机器人伴侣能够提供一些舒适和爱── 显然至少有爱── 我不确定这是否是一件错误的事情。」他说,在现实生活中,有许多人因为某些原因无法和其他人建立这样的关系。这是事实。

Marchant 明确指出他认为人们之间的联系比这些合成的伴侣关系重要得多。但他也准备好接受不是所有人都和他有相同的价值观这件事。「我很确定我不会和一个机器人结婚,但如果我的儿子想要在20年后这样做,我不会跟他说不允许。」他说。「我会和他讲清楚,但我比起其他更为担心的是这样做会不会让他真的开心。」也许是这个新时代的信号,欧盟今年早些时候起草了一份计划,包括给予机器人一个官方的身份,称作「electronic person(电子人)。」


走向未来

Facebook 首席执行官马克·扎克伯格认为在未来10年里,人工智能的感知能力可能会超过人类。微软研究员邓力同意这一观点,甚至更进一步说:「人工智能科技会在普通人的生活中获得广泛应用。」

谷歌母公司 Alphabet 的执行主席埃里克·施密特和谷歌的首席执行官 Sundar Pichai 都认为以机器学习为核心的应用,产品,公司将会在未来大量出现。他们很快指出,这种形式的人工智能,由于它们对数据无法满足的胃口,只能在云端才能发挥全部潜力。谷歌技术基础设施的高级副总裁 Urs Hölzle 说道,「在接下来的5年里,我将期待看到在计算机领域比起过去5个世纪更加剧烈的变化。」

当(对于有意识的AI)工程路径变得明确后,我们将会意识知道什么不该去做。

这些预测──至少很明显,从来源上看── 是很乐观的。但这并不意味着前方的路会像高速公路一样平坦。来自IBM 的 Banavar 指出了有一些可能会妨碍技术发展的挑战。「我们需要的其中一个突破,」他说,「是你如何将(机器学习的)统计技术和基于知识的技术联系起来。」他认为尽管现在机器已经被证明有足够强的能力筛选海量数据来判断特性和预测结果,但它们仍然不懂得这其中的「意义」。另一巨大的挑战是为了能够提升计算能力,我们需要需要实现下一个人工智能的飞跃。「我们正在开发新的架构。」他透露,「灵感来源于大脑的天然结构。」实现的前提是大脑启发下的软件,能像神经网络一样,在机器学习中产生有说服力的结果,那么大脑启发下的硬件才有可能同样(或更加)强大。

这些讲到的脑启发的技术不可避免的将我们又带回最初的,令人害怕的担忧:在未来,人工智能也许会成为一系列越来越有用的工具,把我们从单调沉闷的工作中解放出来,但也许也会激进的进化── 发展到我们没有认知的地步── 成为发明以来最高效的杀人机器。

我们从选择中选出较优的,但我们如何保证最终的结果会是什么样的?如果我们跟从者人工智能专家Chorost的建议,那我们就无须担心。因为随着人工智能的进化,它们会逐渐产生道德感── 道德会使它们善良。还有个猜想是更有可能的,他强调。「当(对于有意识的人工智能)工程路径变得明确后,我们将会有意识知道什么不该去做。」

Bavanar,尽管认为有自我意识的人工智能不会出现,但仍建议说「对于我们来说有一个可以关掉机器的方法是一件明智的事情。」Google的 DeepMind 团队对此表示赞同,并协同 Future Of Life Institute一起写了一篇文章,描述如何创造一个相当于「big red button」的东西,能够在即使人工智能已经聪明到意识到这个机制的存在的情况下,人们也能够操控它,暂停它的功能。这篇文章,名称为《Safely Interruptible Agents》,这对一个会逃跑的超级智能而言可能不是长久的办法,但至少这个方法正朝着正确的方向上迈进,就像特斯拉的 CEO 马斯克担忧的那样:他最近暗示谷歌是「唯一」一家其 AI 成果让他彻夜难眠的公司。

有趣的是,在接受 Recode 的采访时,马斯克建议 OpenAI ── 一个他支持的,希望通过草根努力让每个人都能够使用人工智能科技的组织── 会成为对抗恶意的人工智能力量的最终手段。「如果每个人都有他们自己的人工智能,」他设想,「如果某个人的确用人工智能做了一些可怕的事情,那么其他人的将团结起来会打击这个坏人。」

也许我们会创造出很强大的人工智能。或许它不友善。或许我们会被天网推向灭亡,和《黑客帝国》中的母体机器达成休战协议,或被《她》中超级智能OS One所忽视和遗弃,只剩下没有那么智能的设备陪伴我们。

又或许,引用计算机科学家和人工智能怀疑论者 Peter Hassan的话,我们将简单的持续着「追求越来越多不相关的繁杂事务,而最初的目标在未来逐渐消失── 就像海市蜃楼一样。」

声明:本文由机器之心编译出品,原文来自 Digital Trends,作者 Simon Cohen,编译武竞、Xuwen Wang、Rick R。转载请查看要求,机器之心对于违规侵权者保有法律追诉权。

  1. 网站转载请在文章开头粗体注明:本文转载自机器之心,标明作者,并附上本文链接。
  2. 微信公众号转载请在开头粗体注明:本文转载自机器之心,标明作者,并设置阅读原文链接为本文链接,微博转载请附上本文链接并@机器之心synced。
  3. 网站和微信转载具体文章后需来信至邮箱operation@jiqizhixin.com说明,备注转载文章标题、转载的微信号名称和转载日期。
  4. 机器之心只接受如上几种转载方式,其余均视为侵权,如需商业合作请致信bd@jiqizhixin.com。
参与成员:

  • 吴攀

  • 杜夏德

相关文章

千人千面智能淘宝店铺背后的算法研究登陆人工智能顶级会议AAAI 2017

千人千面智能淘宝店铺背后的算法研究登陆人工智能顶级会议AAAI 2017

河南最快超算平台启用,加速智慧城市和人工智能应用

河南最快超算平台启用,加速智慧城市和人工智能应用

DeepMind提出PathNet:通过迁移学习展望通用人工智能

DeepMind提出PathNet:通过迁移学习展望通用人工智能

评论

共有0条评论,点击展开

同步到新浪微博