编译 | 王宇欣、王艺
作者 | Dom Galeon
来源 | Futurism
无头的守卫犬
画面中,三个人正在执行任务,准备闯入一个看似被遗弃的仓库。他们要帮助一个奄奄一息的人,让他最后的日子好过一点。他们看上去非常紧张,脸上挂着绝望的神情。
几分钟之后,我们终于明白他们在害怕什么。随着情节的推进,一只四条腿,由太阳能供能的机器犬进入画面。它看起来和波士顿动力最新版本的 SpotMini 差不多。
在最新一季的英剧「黑镜」第五集 Metalhead 中,这只狗被称为「The Dog」。和 SpotMini 一样,The Dog 没有头。相反,它的头部位置装有一个玻璃箱,里面是许多的传感器,包括一个复杂的计算机视觉系统(我们可以推测出这些是因为画面会不时地切换到机器犬的视野)。
然而和 SpotMini 不同的是,The Dog 带有一大堆先进的武器。例如,一种向潜在的小偷或是行凶者发射弹片状追踪设备的手榴弹;它的前腿上装有威力大到足以爆头的枪械;它还可以连接到计算机系统,通过解锁一些安全门或是驾驶智能车辆来执行更多的高科技任务。
The Dog 不是那种常规的守卫狗。它,致命,无情,能够追捕和摧毁任何与它相遇的人。就像开头的人物那样,不管闯入的准备做的多么充足,远离它都是最聪明的选择。
就像「黑镜」中的许多技术一样,这样的机器犬其实离我们并不遥远。在像美国和俄罗斯这样热衷于研发人工智能武器的国家,像波士顿动力这样的公司正在积极开发符合这些需求的机器犬。
所以,我们与 The Dog 这种人工智能加持的守卫犬到底还有多远?
内有恶狗请小心
据专家介绍,「黑镜」中机器犬的一些特征与现实已经非常接近了。11 月,一个关于未来「屠杀机器人」的视频快速传播,视频介绍了一种被设计用来搜索并消灭特定人类目标的自动无人机。从网络评论中,我们看到了人们对这类机器人的不适。
幸运的是,这项技术和视频本身都是虚构的,但是视频制作小组的一员,加州大学伯克利分校计算机科学教授 Stuart Russell 告诉外媒 Futurism 说,「我们已经具备了所有的基础技术。这项任务不会比自动驾驶的难度更大;主要问题在于投资和努力,如果成立项目组并有无限的资源投入(就像曼哈顿计划),屠杀机器人这样的东西在两年内就可以投入使用。」
集群智能公司 Unanimous AI 的创始人兼 CEO Louis Rosenberg 对 Russel 的断言,即完全自主化的武装无人机将很快成为我们生活常规的一部分,表示同意。「已经非常接近了,」Rosenberg 对 Futurism 说到「20 年前,我估计全自动机器无人机将会在 2048 年以前被使用。今天,我不得不说,这一天会更早到来。」他预计这样的自主武器可能会在 2020 年到 2025 年之间大规模生产。
尽管「搜索和消灭」这样的人工智能功能离我们已经很近了,但是 Russel 认为,「黑镜」中的 The Dog 离实现仍有一段距离。
制造这种机器人杀手的问题可以追溯到狗在各种不同环境中无障碍活动的能力。「现实世界中,狗能够长时间地在不同的环境中进行切换,并且会遇到很多意想不到的事件。然而现阶段的软件很容易会混乱,然后陷入困境,因为它对外部世界发生的事情没有概念。」Russel 说。
软件问题不是机器人杀手所面临的唯一阻碍。「有胳膊有腿的机器人在操控不熟悉的物体时仍然有一些困难,」Russell 说道。但在「黑镜」中,经过训练,The Dog 甚至能够精准地控制菜刀。
和今天的机器人不同,The Dog 没有那么容易被骗。「事实上,机器人仍然很容易被骗。它们目前无法对之前未了解过的事情采取对策。比如说,激光雷达探测器太薄,无法正确探测,或者某些干扰设备使用虚假信号导致导航混乱等。」Russell 说。
请看好你的狗
在最后,我们似乎达成了共识,在未来我们有能力把这样的机器狗带到生活中来。但是我们真的应该这样做吗?
Rosenberg 和 Russell 都同意,将人工智能武器化这一做法会给世界带来更多的伤害,特别是将其作为武装或是「杀手机器人」。「我真诚地希望不会发生这种情况。我相信从根本上自动化武器就是危险的。他们将复杂的道德层面的决策交给没有人为判断力的算法来进行。」Rosenberg 解释说。大多数智能手机上的自动更正算法都经常会犯错误,他继续说道,同样,自动化武器也可能犯错。Rosenberg 表示,「我相信要让这样的技术完全可靠,我们还有很长的一段路要走。」
的确,如今大多数人工智能算法都非常复杂。但这并不意味着他们做好了充足的准备以作出判定生死的决策。
其中最大的障碍是,大多数算法的内部工作机理对我们来说都是无法理解的。Aiva Technologies(这家公司构建了一种创作音乐的人工智能)的 CEO,Pierre Barreau 通过邮件对 Futurism 表示,「目前,深度学习有一个很大的问题就是技术的黑箱问题,这让我们无法真正理解为什么算法会作出这样的一些决定。因此,在将这些技术应用到武装领域作一些敏感决定时就涉及到了很多问题,比如人工智能会针对某一情况作出何种反应?它的意图是否与人类意图相符?这些我们都无从得知。」
用人工智能作出重大的决定似乎太过随意,比如国际特赦组织对自动化武器的批判。「我们认为完全自主的武器系统无法遵守国际人权法和国际警务标准。」Amnesty 的军控顾问 Rasha Abdul-Rahim 通过邮件对 Futurism 说道。
人类在做出这些决定时也不完美,但至少我们可以展示出自己思考的过程,他人能够理解某个人是如何做出这一决定的。这和机械战警决定是否对某人使用泰瑟枪时完全不同。「如果用于维持治安,那么我们必须同意机器可以自行决定是否对人类施加武力,」Russell 说道,「我怀疑社会对此将会有很多反对意见。」
Unanimous AI 的集群智能预测到,在未来,全球范围内的管理组织可能会禁止或阻止使用自主机器人武器。我们可以对集群智能的预测保佑一定的期待,至少,Unanimous AI 在过去已经成功预测过很多事情。
然而,另外一些人声称,只要受到严格监管,按照预期使用技术,一些国家可能会允许使用自主化武器。Russell 指出,包括 Henry Kissinger 在内的一些领导人都提出要禁止直接攻击人类的自主化武器的设计与制造,但是仍然允许这些武器运用于空中和潜艇作战当中。
Abdul-Rahim 表示,「因此,我们必须对红十字国际委员会所称的『关键职能』,即目标的明确和武力部署等,进行有效和有意义的人为管控。」
一些专家提出了两者中的细微差别。自主化武器在一种情况中是可以存在的,但不能用于其他情况,虽然这样的方法可能难以实施,一些人则坚持这样的规定还不够。Abdul-Rahim 表示,「国际特赦组织始终坚持呼吁各方要在发展、生产、运输等方面抢先对全自助化武器系统进行禁止。」但是这样的呼吁可能已经太迟了,一些国家已经开始了人工智能武器的研发。
Russell 和很多其他专家一直以来都有参与到停止人工智能武器的发展和使用的呼吁行动中,一个由 116 个国际领导者组成的小组近期就这个问题给联合国发表了一封公开信,据说联合国已经在考虑相关禁止事宜。Rosenberg 总结说:「我们希望法律的限制能够阻止历史进程的推动,让它不会发生。」
人工智能可以使我们世界上大部分地区发生革命性的变化,这毋庸置疑,甚至包括战争和其他国际冲突的解决方式。届时将由国际立法者和领导者决定是否发展自动化武器或者无头机器守卫犬等技术。然而比起益处,战争终将造成更多伤害。