机器之心

首页 > 思想 > 精神,物质,人工智能的意识之谜

思想

精神,物质,人工智能的意识之谜

2016-10-27 15:18:08         
1 0 0

1984年,哲学家Aaron Sloman邀请了一些学者来描述「可能的思维空间」。Sloman提到所有种类的人类思维,其实质不仅是各种不同的思维,像是黑猩猩、乌鸦和章鱼这些其他动物的思维。可能的思维空间必须还包括宇宙中其他地方生命形式的思维,这些思维形式可能和地球生物所产生的任何东西都不一样。即使我们在宇宙中是孤独存在的,这些可能的范围也还包括理论上的生物,就像是它还包括在不同条件下地球上存在的生命形式一样。

header_concious_exotica.jpg

图片:Richard Wilkinson

我们必须考虑到人工智能的各种可能性。我们说智能可以「衡量一个对象(agent)在各种环境中达到目标的能力」,这也是计算机科学家Shane Legg和 Marcus Hutter对智能的定义。通过这个定义可以看出,所有目前存在的人工制品都没有达到人类级别的智能。虽然有一些高需求的计算机项目的表现已经超过了人类,比如说在围棋游戏当中,但它们只是在特定的智能领域,目前还没有计算机或是机器人的能力能够与人类智能相比。

但是人工制品拥有一般智能——不管是老鼠级别、人类级别或是更高级别——才是我们最感兴趣的问题,因为它们都属于可能的思维空间范围之内。实际上,因为这些人工制品的潜力远远超过了智能自然变化的潜力,所以非自然的变体可能会占据这个空间的大部分。其中有一些人工制品可能会非常奇怪,比如说我们可能会称为「新奇意识」的一些东西。

面对Sloman的挑战,在下文中,我尝试从两个方面去描述可能空间思维的结构,分别是意识能力和与人类相似的行为。在这样的结构中隐含的一些新奇的意识形态是我们无法想象的。但同时我也对 Ludwig Wittgenstein的看法很感兴趣,他否定了二元论,这种理论认为我们的主观感觉中有一个无法进入的领域,而这个领域会形成一部分的现实。纯粹说来,我更喜欢「无物隐藏」的说法。难点就在于我们不接受的二元论,那些根本无法捉摸的意识有可能会接受。可以说是「对外公开」,但从根本来讲还是隐私的。我试着向大家展示我们是怎样可能避免这种麻烦的结果的。

Thomas Nagel的实验从蝙蝠的主观观点出发是一个很好的开始。Nagel想知道成为一只蝙蝠会变成什么样子,「如果我只能尽力想象,我会被我自己的思维限制,而这些资源对这样的研究来说是远远不够的。」Nagel的立场得出的必然推论是一些事实——一些和各不相同主观看法相联系的事实——人类思维是无法了解的。这符合二元论认为如果只有客观事实,忽略主观观点就无法认识事实的说法。然而,我认为应该反对二元论想要用这种方式来分裂事实的看法。所以如果我们接受Nagel的观点,意识的客观性就会受到挑战。

但是依我看来,真正的问题不在于蝙蝠。非人类动物有些奇怪的思维为Nagel的实验带来了挑战,因为他将本体论地位作为日常指示性的区别。我不能做到面面俱到,但是这样的陈词滥调没有意识到与空间当中特定地位所关联的不可忽略的事实。同样,我们也不能既当人,又当蝙蝠。但是这没有涉及到与特定主观观点相联系的现象学事实。在读到「作为一个人,我不知道成为一只蝙蝠会是什么样子」这句话时,我们不应该被「知道」这个词所愚弄,这句话在哲学上比「我是一个人,而不是一只蝙蝠」更让人迷惑。我们可以猜测成为一只蝙蝠会是什么样子,用我们的想象力来扩展我们的经验(就像Nagel一样)。这样我们或许就可以评论这项研究的一些限制。Nagel的错误就是他推断出在这个问题上一定有事实,某些主观的「真相」存在,来逃避我们的整体探究。

探索思维的可能空间就是去考虑比任何地球物种都新奇的生命存在的可能性

在这点上,我从Wittgenstein1953年《哲学研究》(The Philosophical Investigations)获得了提示。 Wittgenstein否定私人语言论(即世界上只有说话者自己才懂的语言)的基础就是我们只可以讨论眼前的、公开的、对大众开放的 东西。对于其他的事物,「一个无字所起的作用正好如同某种不可说的东西」。一个能表达隐私和内心感受的词在我们的语言当中没有用处。当然,在实践中可能隐藏着一些东西,就像是魔术师杯子里的一颗球, 或是在光锥外面的星体。但是纯粹来讲,没有任何一件东西是遥不可及的。谈到其他事物的内心世界,需要揭露的更多——与它们互动、观察它们、研究它们怎么运作——但是这对于说话来讲没有什么意义,好像除了我们所揭示的东西之外,还有一些什么一样。

根据这些想法,我们不应该把不可知的主观性归因于他人(尽管有些奇怪),归因于蝙蝠或是章鱼,亦或者是外星人或人工智能。真正的问题在于所谓的新奇意识。 Nagel「合理地」假定「我们都相信蝙蝠有经验」,我们可能不知道成为蝙蝠是什么样,但是我们可以推测。而探索思维的可能空间就是要去考虑比任何地球物种都新奇的生命存在的可能性。可能存在的思维空间是否会包括一些我们也说不清它们是否有意识体验的神秘生物?生物中心论否定了这样的可能,而二元论的观点则肯定了这个可能,它认为在主观事实背后隐藏着一定的规律。无论一种生物是否具有意识经验,也不管我们是否可以知晓,相比较「成为X会怎么样」这样的问题,对于「成为X是否和成为任何其他事物都一样」这样的问题当然(我们可能会说)一定有其事实存在。

让我们来进行一个思维实验。假设我有一天早上到实验室之后发现送来一个白盒子,里面是一个极其复杂的动态系统,运作完全公开。或许这是来自外星人的礼物,也或许是某个和我们竞争的AI实验室不想要的产品,因为任凭算法发展,对结果束手无策。我必须要决定是否要把这个盒子毁掉,我怎么才能知道这样的行为在道德上是不是可以接受的呢?是否可以借助某种方法或是程序来确定盒子里是否有意识存在。

面对这个问题,唯一的办法就是制定衡量意识的一个客观指标,用一个数学函数把所有的物理描述给出一个数值,用数字来衡量系统的意识。神经科学家Giulio Tononi提出了这样的一种衡量方法,叫做Φ,在所谓的整合信息理论(integrated information theory)下,Φ用一种特定的信息理论的功能,描述了系统的所属范围,而不仅仅是各个部分的总和。对于Tonono来说,意识就是Φ,就像水就是H2O一样。所以整合信息理论声称可以在任何的动态体系当中提供意识存在的必要和充分条件。

这个方法的首要难题就是它将意识从行为当中分离。一个完全独立的系统 Φ值会很高,虽然它没有和除自己之外的任何事物有过互动。然而我们日常的意识从根本上来讲是与行为紧密相连的。如果你对我说有人意识到或是没有意识到什么事情(迎面驶来的车,或是从走廊经过的朋友),我肯定会对他们的行为有所期待(他们会不会停下来,他们会不会打招呼)。我可能也会对你说相似的事情,我意识到了什么,所以做出了怎样的行为。「我几乎分不清这两种颜色」,「我脑子里一直在想总数,但是太难了」「我才刚刚记住她说的话」「现在不那么疼了」——所有的这些句子都可以帮助我向那些和我讲同一种语言,在我们每天的社交活动中扮演一定角色的说话者解释我的行为。这样我们就可以互相提醒对方我们过去做过了什么,现在正在做什么,以后可能要做什么。

只有在研究哲学的时候,我们才会讲到私人主体的意识、经验和感受。这也是 David Chalmers 提出的难问题和简单问题的区别,内部与外部世界的重大差异,简而言之就是二元论的一种形式,在这种形式中,主观经验本质上是现实的一个显著特征。Wittgenstein在他对私人语言的评论中提出了解决这种思考方式的方法。他最重要的观点是对「我们谈论到我们的体验时,必须有一个外在的、公开的表示」影响的论证。Wittgenstein认为「只有活着的人和类似(表现类似)活人的生物才可以说:它有感觉,它能理解……它是有意识的或是无意识的」。

从Wittgenstein的思想,我们可以得出以下准则:只有在有目的的行为背景下,我们才可以讨论意识。综合这些观点,为了建立意识的存在,发现一个像是我们思维实验中的白盒子一样 Φ数值很高的系统可能还不够。我们还需要从行为当中识别出目的。为此,我们必须要将这个系统嵌入到环境当中,我们需要看看环境如何影响这个系统,系统又是如何为了自己的目的作用于环境的。如果所研究的「系统」是一个动物,尽管环境会为不同的生物提供不同的事物,但是我们已经生活在了相同、相似的环境中。而要是在一个陌生的系统(创造物或是生物)中识别有目的的行为,我们可能还需要设计一次互动。

即使是在熟悉的情况下,设计一次互动也很难办。例如,在2006年,神经科学家Adrian Owen和他的同事曾试图以植物状态的患者为对象用fMRI扫描仪建立一种交流的简单形式。患者需要想象两个不同的场景:在房子里走动和打网球,正常人在想象这两个场景时会出现非常明显的fMRI成像。部分植物状态的患者在相应的动作指令下会适当地出现fMRI成像,说明他们听懂了指令,并且试图作出回应,也说明他们还能运用他们的想象力。这就是和患者「设计的一次互动」,尤其是在他们身体健康时多年从事的正常活动背景之下将他们的行为解释出来。

我们不能通过这些证据就断定我们的朋友们可能都是有意识的生物。我们只是简单地觉得它们是,所以也相应的那样对待它们

要是我们可以识别研究对象有目的的行为,我们就可以开始观察或是(有希望)与它互动。根据观察和互动的结果,我们或许就可以确定研究对象是否存在意识。或者换种方式来说,我们可能会采取我们通常对一些有意识的生物的态度。

这两种形式表达的差异值得仔细研究。第一种模式下隐含的假设是有事实存在。不管事物当中的存在意识是先于我们存在或者不是,真相都可以通过结合经验和理性的科学调查被揭露出来。第二种模式是源于 Wittgenstein的观点。想想那个有些令人怀疑的观点,一个朋友是一个不动脑筋机械行事的人,我们今天可能会说他像一个现象学上的僵尸,——Wittgenstein认为他并不觉得他的朋友有灵魂。然而,「我对他的态度和我对待一个有灵魂的人的态度一样」。「有灵魂的」我们可以解读为「有意识,并且有快乐和痛苦的能力」。关键的一点是,在日常生活中,我们不能根据这些证据就下结论,总的来说,我们的朋友或者是我们爱的人和我们一样都可能是有意识的生物。而事实却要远比这深远得多。我们只是简单地觉得它们是,所以也相应的那样对待它们,没有怀疑。

Wittgensteinian的感性又是怎样在比人类更新奇的生物或是其他动物当中适用的呢?现在,我们可以再来考虑一下白盒子的问题,在某种程度上,是否有一种方式能够决定盒子当中是否存在意识。反之,我们可能会问:在什么样的情况下,我们对这个盒子,或者是盒子的某一部分,也会采取我们通常对一个有意识的生物的态度呢?

让我们从一个还算新奇的假设案例开始,一个拥有人类级别人工智能的人形机器人:2015年,由Alex Garland担任导演和编剧的电影《机械姬》当中的机器人Ava。

在《机械姬》当中,程序员Caleb被他的老板带到一个很偏远的别墅,他的老板名叫Nathan,是一个遁世奇才,也是一个科技界的百万富豪。起先,他告诉Caleb需要他充当「图灵测试」中的人类因素,测试对象就是Ava。在第一次见过Ava之后,Caleb对Nathan说在真正的「图灵测试」当中,测试对象应该向测试人员隐藏起来的,尽管Caleb从一开始就知道Ava是一个机器人。Nathan反驳说「真正的测试就是要让你看到她是一个机器人,然后再来检测你是否还认为她有意识」。(或许我们可以将这称为『Garland测试』。)随着剧情的发展,Caleb也有了更多的机会来观察Ava,与她互动。慢慢地,他不再认为她仅仅是一个机器人,并开始对她的处境心生同情。Ava被Nathan监禁,如果测试失败,就会面临被「终止」的可能。在电影最后,我们可以明显地看到Caleb对Ava的态度已经转变到了我们通常对待有意识生物的态度了。

Ava和Caleb的故事正是展现了Wittgenstein所倡导的对待意识的方式。Caleb态度的转变,不仅仅是因为对Ava大脑内部运作的科学调查,还因为他整天看着她,观察她。 他的立场就会比任何想法都要深刻。最后,他即使自己冒了很大风险还是很果断的站在她的一边。我不期望实施这样的科学调查能够影响我们看待其他生物的方式,尤其是在一些更加新奇的领域。重点在于对于机制的研究只能对观察和互动进行补充,不能代替。除了跟它们一起生活,亲身相遇,我们还有什么方法能够像这样看到另外一些有意识的生物的呢?

有些东西与我们非常不同,虽然有着和人类相似的行为,但是它们的意识却可能和我们大相径庭

对于Caleb来说,情况似乎就简单了些,因为Ava只是一个一般新奇的案例。她的行为和人类很相似,并且她有人形(还是一个他觉得有吸引力的女性形象)。但是虚构的Ava也展现了对于她来说,一件似乎简单的东西有多难办。在发行的剧本当中,电影的最后一幕有一个情节并没有在最终的剪辑后留下来。剧本上写道:「面部识别的向量总是围绕着飞行员的脸。当他开口说话的时候,我们听不见内容,只能听见一阵阵低沉的噪音。说话就是单纯的模式辨认。这就是Ava看我们和听我们说话的方式。这种感觉特别奇怪。」这个情节让电影的主旨有些含糊不清。作为观众,我们倾向于将Ava当做一个能够感受到痛苦的有意识的生物——正如Caleb眼中的Ava一样。但想想Caleb要是被愚弄了呢?或许Ava根本没有意识,至少从某种熟悉的程度来讲。

这样的想法很有吸引力,但是我们必须极其谨慎地对待。在计算机科学当中有一条真理就是,对一个系统如何表现的详细叙述,并不能决定怎样把这样的行为运用到实践当中去。在现实当中,人类级别的人工智能展现出来的类似人类的行为有很多的实例可以说明。但是复制生物大脑是不太可能的。从另一方面来说,也许意识就是取决于实现。如果说某种生物的大脑就像我们的一样,我们就有根据去讨论它的意识、内心世界也和像我们一样。理论上大约如此。但有些东西与我们非常不同,虽然它们有着和人类相似的行为,可意识却可能和我们大相径庭。

这个想法的问题在于它在我们抛之脑后的二元形而上学设想中所展现的吸引力。当然,我们呼喊着在这背后一定有真相存在吗?我们所讨论的AI是否和你我一样具有意识?但是看起来我们好像永远都无法知道真相到底是怎样的了。从这到二元知觉只是一小步,实体内心体验的私人和主观世界与公共和客观世界的存在是分离的。但是我们没有必要屈从二元知觉,也没有必要去否定它。只需要注意到,在困难的情况下总是可能会发现更多与研究对象相关的东西——在更广泛的一些情况下去研究对象的行为,去跟它用新的方式交流,更彻底地去调查它的运作。随着我们的发现越来越多,我们对待它的方式以及和它说话的方式都会改变,这样我们就会趋同于用一种合适的态度去对待它。实际上,如果Caleb能有更多的时间与Ava互动,了解她所做所为的原因,他对Ava的态度也会有所改变。

目前,我们仅仅把眼光局限于类似于人类的实体,而没有看到一些非常新奇的东西。但是如果我们想要深入了解思维的可能空间的话,就必须要拓宽我们的视野。我们可以趁机发挥想象思考那些真正新奇的生物,猜测它们是否具有假定的意识。

我们可以从很多不同的维度来绘制我们可以想象到的各种思维。我选择了两个:人类相似性(H坐标轴)和意识能力( C坐标轴)。一个实体如果达到和人类相似的程度就可以用我们通常用来描述人类的语言去描述它的行为——描述宗教、愿望、情感、需要、技巧等等的语言。根据这个定义,一块砖的分数会很低。由于各种原因,如果一个新奇实体的行为非常复杂或是奇怪的话,它在人类相似性方面的分数可能也会很低。在 C坐标轴上,一个实体的意识能力是与它有能力拥有的丰富经历是相对应的。一块砖头在这个坐标上的分数是零(尽管违反了泛心论),人的分数明显要比一块砖头高的多。

下文的图1中尝试性地将一些动物放在 H-C plane当中,轴线的数值范围从0(最小)到10(最大)。如图,砖头的坐标为(0,0)。让我们再来看看C坐标轴的布局。毫无悬念,人类的意识能力比其他的生物都要高。所以人类的数值在这个坐标上达到了8。动物的意识就很难判断了。但是一个普遍的假设是,至少在地球生物当中,意识是和认知能力紧密相关的。根据这个看法,一只蜜蜂的意识能力应该要比猫的小,猫的意识能力又比章鱼的小一些,而这三种动物的意识能力又都要比人类的小。借助对动物认知能力方面的研究这样来部署动物是合理的。这些认知能力包括联想学习、物理认识、社会认知、工具使用、生产制造、心理时间旅行(包括对未来的计划和类事件记忆)和交流。我们认为一个动物对世界的体验都是因为这一项项的能力才得以充实的。对于人类而言,我们可以学习语言,这项能力会形成抽象思维,并且还能让我们通过图像和隐喻进行联想性思考。

Slide1-crop.jpg

Slide2-crop.jpg

图1上:H-C Plane当中的生物学;图1下:H-C Plane当中的现代人工智能

现在,我们再来看看H坐标轴。同理,人类的人类相似性是最高的,所以,在这一方面人类的分值高达10。所有非人类的动物都和人类有一些相同的基本特点。所有的动物都有肉体,都能移动,都能感受这个世界,还能展现一些有目的的行为。此外,与人类相同,每一种动物都有一定的身体需求,比如说食物和水,每一个动物都会尽力保护自己免受伤害,让自己存活下来。就此而言,所有的动物都会表现出类似于人类的行为,因此所有的动物在人类相似性方面的分数都达到了3分或以上。现在,为了描述并且解释一个非人类动物的行为,我们利用了我们来描述和解释人类行为的观点和语言。如果说一个动物的行为已经达到了类似于人类的程度,那么这些概念和语言上的资源对于描述或是解释它的行为来说是非常必要和充分的。但一个物种的认知能力越复杂,所需要的概念和语言资源也相应的会更多。所以猫和章鱼仔在人类相似性方面数值高于蜜蜂,但是低于人类。

但是给生物的意识能力标记一个简单的分数未免太天真

在我们所做的这些假设之下,人类相似性和意识能力基本上都与动物相关。但是,章鱼的人类相似性要比猫低,虽然它的意识能力要比猫高。我不想专门去讨论这些相关的数据。但是章鱼显示出的生物可能性在意识方面很复杂,所以我们倾向于认为章鱼具有丰富的意识体验,只不过它的行为对于人类来说很难识别。进一步研究这个观点,我们可以想象意识生物要比一只章鱼更加的难以捉摸。但是由于各种不同的原因,这样的生物可能会出现在H坐标轴砖头的位置上。要在描述并且解释一块砖头的行为时用上我们用来描述和解释人类行为的详细概念就没有必要了,因为它所展现出来的东西也没有什么好提的。但是要是在描述和解释一个意识复杂、难以捉摸的生物时,这些资源可能还远远不够。

很多人可能都会对这样的设计持不同意见。当然,给生物的意识能力标记一个简单的数值确实有些天真。更加微妙一些的方法可能会容易意识到在不同的动物身上可能存在着意识能力的不同结合。而且这些意识能力是否与生物的经验有关还有待讨论。在H坐标轴的正当性上也存在相似的疑虑。但是H-C plane应该就像是一块画布一样,我们可以在上面粗略地、实验性地画出可能的思维空间草图,这会推动对这一问题的讨论,而并不是一个严格的理论框架。H-C plane的图不是想要描绘出关于各种生物意识的事实,而是我们针对各种实体的意识,可能会达成一致态度的一种思考性的尝试,之后才是观察、互动、辩论、讨论以及调查它们内心世界的一个整体过程。

我们不妨再把关于机器人科学和人工智能的一些比较现代的例子放进H-C plane当中,其中包括Roomba(一种家用的真空吸尘机器人),BigDog(一种四足机器人,行动非常逼真),还有 AlphaGo(Google DeepMind开发的人工智能围棋程序,在2016年击败顶尖职业棋手李世乭)。我们看到这三项都在C坐标的靠左侧。事实上,目前还没有机器、机器人或是电脑程序能够被非常有根据地判定为拥有意识能力。

另一方面,从人类相似性来看,这三项在这个方面都远远超过砖头。BigDog的人类相似性稍稍低于Roomba,两者又都稍高于AlphaGo。BigDog需要由一位人类操作员来指导。然而它可以自动适应平滑或者是粗糙的地面,失衡(比如说被踢了一脚)的时候也可以自动调整。在描述它行为这些方面的时候,我们会很自然地使用「它尽量不让自己倒在地上」或者是「它确实很想保持直立」。这就是说,我们倾向于对BigDog采取的态度就是Daniel Dennett所谓的意向性立场(intentional stance),认为信仰、愿望和意图的存在只是在于它们有助于对行为进行描述和解释。

和BigDog不一样,Roomba 是一个完全自动化的机器人,它可以在没有人为干预的情况下自动运行很长时间。除了BigDog对被踢等行为的逼真回应之外,对它的内心世界最浅显的理解就是应该消除要将它视为一个对抗多样性的生物的倾向。对Roomba来说也是如此。然而,Roomba 的行为更加复杂,因为它有一个首要任务就是要让地板保持干净。在这样的任务背景之下,他的意向性立场就会更加复杂,产生感知、动作、信仰、愿望和意图之间的相互作用。我们不仅倾向于说一些诸如「他转了个弯躲开了椅子腿」之类的话,有时还会说「它回到了转接坞,因为它快没电了」或是「它来回清理那块地毯,因为它知道那儿真的很脏」。

在这三个人工产物当中,AlphaGo的分值是最低的,但不是因为它缺乏认知能力。事实上, 这些产品只是在非常狭窄的领域才这么让人印象深刻。而是因为AlphaGo的行为几乎一点都不像人类或是某种动物。和BigDog、 Roomba不同,它没有生活在这个现实世界当中,或是在某个相关的方面有一个虚拟的代理。它不会感受到这个世界,也不会移动,它的全部行为就是它在棋盘上显示的动作。AlphaGo在五番棋对战中输给李世乭的第四盘比赛之后,DeepMind的创立者之一Demis Hassabis在推特上发表了三条相关的评论,第一条说道:「AlphaGo觉得自己下得不错,但是在第87手的时候困惑了」,接着又说:「错误出现在第79手,但Alphago在大概第87手才意识到」。这之后不久,他又称:「我说道『思考』和『意识』的时候,我只是在说Alphago对于棋局胜率的估算。在第79手的时候大约还有70%,但是87手的时候就下降了」。

这不可能出自人类之手,我从来没有见过有人这样下棋,非常优美

对于所有不熟悉AlphaGo内部运作机制的人来说,前两条评论比第三条的科学描述更容易理解。然而,这就是意向性立场的一个简单应用,最后对于AlphaGo的理解来说也并没有太大帮助。它没有与时空世界中的物体有相互作用,也没有丰富的根据来判断它的行为与感知、信仰 、愿望、意图和动作等有相互作用。

另一方面,它在围棋的微观世界里拥有非常高超的认知能力。它会通过体验学习,通过自我对局和积累棋谱数据获得经验。它可以搜索到无数可能的方法来决定下一步棋该怎么走。它对一些微妙棋局的高效反应能力就是高手们通常所说的直觉。在与李世乭的对弈当中,有一步棋AlphaGo展现了一种我们或许可以称为创造力的东西。它冒险将棋落在了棋盘的五线,这在围棋中叫做「尖冲」,就是将棋子落在对手棋子的相邻对角线的位置。在对这场比赛的评论当中,欧洲围棋冠军樊麾说道:「这不可能出自人类之手,我从来没有见过有人会这样下棋,非常优美」。根据AlphaGo自己的估计,人采用相同策略的可能只有万分之一,因为这与人们千百年来一直接受的智慧不同。而且这一步是获胜的关键性一步。

在AlphaGo当中,我们所发现的是一个我们认为不是「新奇意识」的样本,而是一种「新奇认知」的形式。通过一个很大程度上对人类不透明的过程,它设法想要达到一个超出自己能力的目标。AlphaGo高超的能力也仅限于围棋,要达到强人工智能(artificial general intelligence)我们还有很长的路要走。尽管如此,想要探索强人工智能的可能形式——以及它们怎样在思维的可能空间当中分布这些问题也是正常的。

现在我们已经讨论过了各种实体的人类相似性和意识能力,包括自然的和人造的实体。在下文的图 2 当中,我们将一些假定的生物放在了H-C Plane中。显然,这都是猜测的。对于陌生的物体,只有和它真实相遇,我们才能真正发现对待它的态度,以及怎么改变和延伸我们的语言才能适应它。然而,想象力会让我们对那些存在于可能思维空间中的各种实体有所了解。

Slide3-crop.jpg

图2:H-C plane中的新奇事物

人类级别的强人工智能(AGI)有一些可能形式,比如说专门模仿人脑神经运行的AI。这可以通过复制一个特定的个人的大脑来完成——将它的结构进行纳米层级的细节扫描,把它的物理行为复制到人工基质当中,再把结果用类人的形态表现出来。这个过程叫做「全脑仿真」(whole brain emulation),原则上,这样制造出来的东西,我们很难分辨其行为和原本的人类行为。所以,这几乎完全与人类相似,强人工智能的这个实例说明了为什么AGI在H坐标轴上的数值达到10。另外,除了复制一个特定的人之外,我们还可以匹配对标准新生儿中枢神经系统的统计描述来制造人工大脑。

那这些物体都有意识吗?或者更确切地说,我们会像对待有意识的生物那样对待它们吗?我们会用同样的方式来描述它们吗?我猜我们会的。不管我们在开始的抱有多少偏见,它们完全与人类相似的行为很快就会让我们产生一种对待同伴的感觉。所以一个与人类相似、有意识的AGI 是完全有可能存在的,它在H-C plane当中的坐标也会和人类一样。

但正如我们所看到的,我们没有理由去断定制造一个人类级别强人工智能的唯一方法就是去复制生物大脑。或许利用一个完全不同的结构也能得到相同的结果。(《机械姬》当中的Ava就是一个虚构的实例)。通过蛮力搜索技术、机器学习和大数据相结合,或许就有可能创造人类级别的智能,或许是利用一些不适用于人的观念和计算量。

这样的可能性让我们想到了H-C plane中的一些新物体。第一个是类似于人的僵尸人工智能,在坐标图的最左上角。这个实体不仅有人类级别的智能,并且行为与人类非常相似,可以用描述人类行为的相同语言对它进行描述和解释。但是,它缺少意识。用Nagel的话来说就是,成为这个东西和成为任何其他事物都不同。从这种意义上来讲,它是现象学上的僵尸。

现在,我们真的能想象到这样的事情吗?当然,如果它的行为很难区分于人类行为,我们应该用我们对待彼此的方式去对待它们。在我们和这些物体接触的过程中,我们对待它们的态度可能就会向我们对待同伴的态度转变,将他们看作是和我们一样有意识的生物,也以同样的态度对待他们。但是假设这样的一个实体只是通过模仿人类行为来运作,经过新一代非常强大的机器学习技术,它开始学会怎样在不同的情况下用一种有说服力并且与人类相似的方式来行动。如果说这样的一个AGI说「这真悲伤」,那么这不是因为事物本来的存在方式和它想让事物存在的方式之间存在的矛盾,而是因为它已经学会在那些特定的情况下去表达悲伤了。这会改变我们的态度吗?我猜会的。我们否定了它的意识,将它置于C坐标轴的最左侧。

我们应该要考虑到它们的意识经验比人类意识能力更丰富的这种可能

如果一个人(更有可能是一些公司、组织或是政府)准备为人类制造一个人工的继承者,一种比现代人类还要高级的物种,那么会制造出 怎样的实体呢?不管是理想主义、被误导或者就是疯了,他们可能会找理由说,未来一代的强人工智能会拥有比任何人都强大的智能。另外,这也让我们可以从生物学的限制中解放出来,比如说这样的生物可以在星际空间中进行漫长的旅程,但是人类的身体脆弱,寿命短,在这样的空间当中是无法存活下来的。将来去近距离探索宇宙奇迹的也可能会是AI。因为距离和时间尺度的关系,这些AI不会将信息传达给它的制造者,而是代表人类去探索这些星体。我们可以把这些假设的物体叫做「智能后代」(mind children),这个词是从澳大利亚的机器人学家Hans Moravec那里借鉴过来的。

那么这些智能后代在H-C plane当中会处于什么样的位置呢?既然没有人在家里等消息,那么把一个没有意识,无法体会自己发现的人工制品送到太空去也就没有什么意义了。所以这些智能后代的制造者或许需要去制造一种受生物灵感启发的类似与大脑的结构,保证他们在C坐标轴上的分值至少与人类齐平。实际上,我们应该要考虑到它们的意识体验比人类意识能力更丰富的这种可能,它们可能会拥有一种超意识的形式。情况或许就是这样,比如说,或许它们有一系列的传感器,频宽要比人类的大很多,或许如果它们能够掌握人类无法理解的复杂数学真理,又或许它们的思维当中能够立即形成一个庞大的联想网络,而人类的联想网络却很有限。

而在人类相似性方面,基于人脑制造的模型也会赋予AI一定的人类相似性,其超智能可能会致使人类无法完全理解。它的分数应该是6分或7分。简而言之,我们的超智能、超意识、 人工智能后代都处在图表的右端,稍微在H坐标轴的一半以上。

那么那些没有类似大脑的强人工智能是怎么样的呢?这样的AGI在H-C plane当中显示了几个新的数据点,全部都位于H坐标轴的下方。这些才是真正新奇的AGI,就是说和人类一点儿都不相似。我们无法用我们通常来解释人类行为的术语来理解一个新奇物体的行为——或者至少无法完全理解。这样的物体在各种环境或是情形下,可能会展现一些复杂的、有效的行为来达成目标。而人类要想弄清楚它们是怎样达成目标的,或者识别它们的目标具体是什么,是非常困难甚至是不可能的。突然想到Wittgenstein的一句有些费解的话「如果狮子可以说话的话,我们一定不能理解它说的」。但是狮子是一种相对比较熟悉的生物,我们很容易就能联想到它生活的很多方面。狮子和我们生活中在同一个现实世界当中,它理解世界的方式也和我们相似。一头狮子需要吃饭、配偶、睡觉、排泄,我们有很多共通的地方,而比较而言这些假设的新奇AGI则更加陌生。

最新奇的应该就是那些完全神秘莫测的实体,也就是说已经超出了人类学的范畴。当然人类文化是非常多样的。同一个村庄的邻居也总是会因为彼此不同的习惯、目标和偏好产生一些困难。不过,通过仔细观察和互动,人类学家可以了解这种多样性,并且让这种与自身完全不同的「新奇」文化变得可以理解。但是当然,与和狮子相比,我们与不同文化背景下的同类人 肯定有更多的共同之处。我们共同的人道情怀让人类学家的工作变得更加容易处理。而那些我们一直幻想的神秘实体则要更加新奇。即使是我们能够设计一次与它们的相遇,了解它们那些看似有目的的行为,最专业的人类学家研究团队会尽力去猜测它们的目的或者是它们是如何达到目的的。

那这样的实体会怎样产生呢?毕竟,如果它是由人类设计出来的,为什么人类无法理解呢?不过AI被设计出来之后,确实有很多方面它的设计者都无法理解。我们已经看到AlphaGo让它的程序员和对手大吃一惊的表现。一个更强大的人工智能达成目标的方式可能会更加令人惊讶。更有甚者,一个在人工进化和自修改背景下产生的的人工智能其最终目标也会和那些由程序员主导的人工智能大为不同。此外,鉴于各种智能外星生物存在的可能性,可能的思维空间必须还要将这些生物包含在内,以及它们可能创造出的各种形式的人工智能。不管我们对其他世界生物的思维了解多少,那个世界一定与我们的世界非常不同,而我们的理解在面对一个进化或者自修改的人工智能时就会变得有些无力了,这些人工智能的系统核心就是要为实现这些生物奇怪的目标而服务。

外来的人工智能很明显在H坐标轴上的分数会很低,那么C坐标轴呢?它的意识能力会是多少呢?或者换句话说,我们可以设计出与这样物体的一次相遇吗?在足够的观察和互动之后,我们会用什么样的态度去对待它们呢?如果是这样的话,我们的态度会是怎么样的呢?会和我们对待有意识生物的态度一样吗?

目前,我们陷入了一种理念的僵局。因为我们对这些生物提出的定义已经让这些最奇特的AI超出了人类学的研究范畴。这似乎排除了在我们采取正确态度之前设计一次相遇的可能性,至少从Wittgenstein对于主体的非二元论立场来看是这样的。

是否可能将我们对意识的看法与新奇意识的存在进行调和?回头想想那个白盒子思维测试。在那个送到实验室的神秘盒子当中嵌入的内部动态十分令人费解,非常复杂但又是完全可以进入,这可能就是我们所谈论的某种神秘莫测的AI。我们可能会设法想要设计一次与这样的系统的相遇,或者是这个系统总的某一部分,揭露它们似乎有目的的行为,但还是不能弄明白它们的目的到底是什么。一次与外星智能的相遇也非常有可能会出现类似的困境。

Stanislaw Lem在1961年出版的小说《索拉里斯星》(Solaris)中提到了一个非常有说服力的科幻实例。小说的主人公是一队科学工作者,他们围绕着一个被神秘大洋覆盖的星球旋转进行勘察,而这个星球其实是一个单独、巨大的智能生物体。在它们尝试去探索星球上的外星生物时,好像反过来是这个星球在观察着他们。它们通过他们的记忆和潜意识创造出了和人类相似的人物,让他们来到宇宙空间站,引起了科学工作者们的心理恐慌。对他们来说,科学家从来没有了解到这个生物体当中外星人的思维:这个星球水光波动的表面能够产生最多元的形态,这些形态和地球上产生的任何东西都毫无相似之处,除此之外,那些经常猛烈爆发的「创造力」中所包含的目的——不管是在适应性、认知能力还是其他方面——都还完全是个谜。

假设你面对着一个新奇的动态系统,比如说是白盒子人工智能,或者是索拉里斯星上像海洋一样的生物体。你想要知道它们到底是有没有意识的。不管它是人造和还是活生生存在的,对于任何存在的物体有这样的想法都很正常,这个问题都有一个答案,有一个事实存在,即使这个答案像我们假想的这些案例当中一样难以预测。另一方面,如果我们在这个问题上坚持Wittgenstein的观点,那我们这样想肯定会出错。现实中的一些方面或许是我们的经验无法理解的,但是在一个形而上学的问题上没有什么事情是可以隐藏的。

因为这两种观点是相反的,所以首先我们的选择应该要由两部分组成。以下两者之一:

 a)保留外来意识的概念,但是要否定Wittgenstein的观点,并且要承认在形而上学意义上存在的单独主体。这又回到了思维、身体二元论和难问题与简单问题的二元论上。

或者是

 b)坚持Wittgenstein在意识上的观点,相信「没有什么东西是可以隐藏的」,但是要拒绝外来意识的观点。由此推断,我们应该会放弃将可能的思维空间绘制在 H-C plane上的计划了。

不过我们还有第三种选择:

 c)相信外来意识和Wittgenstein鼓舞人心的哲学观——我们的语言和行为会以无法预见的方式改变来适应我们与外来形式智能的相遇。

我们一直都受到一种假象的诱导,认为意识是一种单独的、庞大的概念,并且与能力的标量度量有关。这种手段确实让很多查询的分支很便利。从保护的目的出发,一个生态学家能够有效地将生物多样性压缩成一项统计,从品种区别、季节变化、空间分布等方面将它们抽象出来。在经济学当中,「人类发展指数」能够有效概括一个国家的教育体系、医疗卫生、生产力等等,但是忽略了个人生活当中存在的无数细节。尽管如此,出于某些原因,我们需要一个更加细致的方法。通过更加仔细地检查,我们会发现意识的概念包含了很多东西,包括对这个世界的意识(或者说是基本意识),自我意识(或者说是高层次意识),感情和同情的能力和认知集成(调动大脑中的全部资源来应对不断变化的情况)。

我们语言中用来描述那些具有复杂行为的外来实体的部分可能会被一种全新的对话形式所取代

对于一个正常的成年人来说,这些东西都是捆绑在一起的。但是对于一个相对外来的实体,这些东西可能是分散开来的。我们发现在大多数非人类的动物身上,存在对世界的意识,但没有自我意识,存在痛苦的能力,但是没有同情的能力。一个人类级别的AI可能会显示出它对世界的意识以及自我意识,但是它没有感情和同情的能力。如果我们对这样的实体越来越熟悉,为了去适应它们,我们的语言就会做出改变。意识的整体概念就会开始分离,这样就会出现新的谈论AI行为的方式。

另外,我们或许会发现一种对行为或认知的全新分类方式,并且和我们以前对意识的观念联系甚少。简而言之,当我们还坚持用我们现在语言中很少的一部分来描述那些高级的外来实体时,我们语言中其他相关的部分可能已经被改造、扩充,并被赋予了全新的交流方式。这个过程可能依靠的是计算机科学、比较认知、行为哲学或者是日常语言的自然进化。在这些状况下,类似于「人类相似性」的一些东西就能够作为有一个有效的汇总统计量,描述那些行为很难用现有术语解释的实体。但是可能需要一个新的理论框架,因为我们现在很熟悉意识的概念,不管是分散化还是被折射,都是可以辨认的。

这个可能性在H-C plane中的推断是什么呢?在上文图2中,H-C plane上有一个点在C坐标轴上的数值与人类相同,但它在H坐标轴的数值较低,因为它太过新奇,所在受到各种意识形式的限制。这里我们找了一些拥有人类级别智能的实体,既有外来的,也有人工的,但是它们的行为和人类行为很少有相似之处。

尽管如此,如果在和这些实体充分互动,或者是充分观察过这些实体之后,我们可能会认为它们是和我们一样有意识的生物,即使是去改变我们的语言来适应它们的古怪行为。外来意识AGI在H-C plane的最左端有一个对应的实体,叫做外来僵尸AGI。这是一个人类级别的AI,它的行为同样与人不相似,尽管我们与它的互动,对它的观察已经很多,但是我们没办法把它当做有意识的实体来看待。这两个数据点——外来的、有意识的、人类级别的智能和外来的、人类级别的僵尸智能——处于整个左边图的最下方的两个角,其他角的数据点分别是最右上方的人类、最左上方的与人类相似的僵尸AGI。这个图中显示了人类级别智能、人类相似性和意识三者之间无法分离的三边关系。

现在,在可能思维的空间中我们可以看到很多的重叠区域。这在下文的图3当中有所描述。(有争议的)假设如果有一个实体全然没有意识,它的意识能力与认知能力相关联,人类级别的智能分布在平行的两个紫色区域,一个在图标的最左边,另一个在C坐标轴上达到了人类级别。外来有意识的AGI位于第二个区域中的下半部分以及左下方的橙色区域。这个区域一直延伸到从C坐标轴的右边,超过了人类级别,因为它包括可能是外星的或是人造的生物,它们拥有超越人类的智能和意识。但是这里的外来意识或许是思维的可能空间当中最有趣的生物,因为它们处于我们对于有意识的同伴认识的界限之中,又在那些复杂、神秘莫测、奇怪的事物范围之外。

Slide4-crop.jpg

图3.H-C plane中一些值得注意的区域

这个界限标志着一个空白区域的边界,也就是说一个「神秘莫测的空间」。它空白的原因在于,就像Wittgenstein所说,只有人类和行为与人类似的生物才有意识,我们已经把对行为与人相类似的理解扩大到了极限(或许比Wittgenstein所说的范围更大)。在接近这个极限的时候,就像我之前所说,现在的意识语言可能会开始瓦解。在这个极限之外,我们发现的实体都无法适用于当前的语言。它们表现出复杂的行为时,我们就不得不用其他的一些术语来描述和解释。所以这些实体在C坐标轴上的位置没有比砖头远多少。这也是为什么表中最下方的一个区域中也没有数据点。它并没有包含一些神秘的实体,而是一些我们都知道的可能有意识的实体。这一点可能需要我们假设这些我们永远无法接触到的神秘外来实体,在其主体性的问题上是有事实存在的。我们可以避免这个观点中包含的二元论,接受这个区域就是一片空白的观念。

这个神秘莫测的空间让我对可能思维空间的构想得以完整。但这并不是完全的空想,我们能从中获得什么呢?让人类直接遇到外来智能的可能性小之又小。我们能够发现其它智能生物在太空中信号的机会也是微乎其微。但是人工智能就是另外一回事情了。我们可能在之后的几十年中就制造出自主的、人类级别的人工智能。如果能够实现的话,我们关于创造物是否或者在何种意义上拥有意识的问题就会在道德上产生重大的意义。但就算是科幻小说中没有这些场景,将人类意识置于一个可能的空间之内也是我们可以着手研究的最深刻的哲学课题之一。这也是一直被人们忽视的领域。没有前人理论的支撑,我们没有巨人的肩膀可以依靠,能做的只能是在一片黑暗之中燃起星星之火。

声明:本文由机器之心编译出品,原文来自aeon,作者Sally Davies,译者曹瑞,转载请查看要求,机器之心对于违规侵权者保有法律追诉权。

  1. 网站转载请在文章开头粗体注明:本文转载自机器之心,标明作者,并附上本文链接。
  2. 微信公众号转载请在开头粗体注明:本文转载自机器之心,标明作者,并设置阅读原文链接为本文链接,微博转载请附上本文链接并@机器之心synced。
  3. 网站和微信转载具体文章后需来信至邮箱operation@jiqizhixin.com说明,备注转载文章标题、转载的微信号名称和转载日期。
  4. 机器之心只接受如上几种转载方式,其余均视为侵权,如需商业合作请致信bd@jiqizhixin.com。

相关文章

哲学将是打开人工智能的钥匙

哲学将是打开人工智能的钥匙

神经科学引发的哲学问题

神经科学引发的哲学问题

互联网集体智慧如何战胜AI?看看当代哲学家怎么说

互联网集体智慧如何战胜AI?看看当代哲学家怎么说

评论

共有0条评论,点击展开

同步到新浪微博