离开办公室时,我关掉了电脑,电脑正在删除着过去我一直在研究的神经网络仿真。当时,脑中闪过一个念头:我刚才是不是杀死了什么东西?我理直气壮地对自己说,仿真系统比细菌组织还要简单,然后毫不迟疑地摔门而去。如果它们没什么大不了的,删掉它们也没什么。但是,心头疑虑仍挥之不去。科学有一个难题。想要发现生物体内真实发生的一切,或者想要知道如何治疗疾病,我们经常需要用生物来做实验。然而数字仿真提供了另一条出路。
从20世纪50年代使用机械计算机制作出乌贼巨大的突触模型开始,我们模拟生物系统的能力开始一飞冲天。如今,我们可以在超级计算机上运行神经模拟,包含数以百万计的现实神经元和数十亿突触。细胞和它们的化学过程也能得到同等程度的仿真。这种潜力让人类有机会选择新的实验对象,替换动物实验。与其让生物在接受止痛剂试验时受苦,为什么不创造一种疼痛模拟系统并找出什么样的治疗方式有效?这种逻辑的落脚点在于仿真,用数字化的方式模拟大脑以及身体的每一部分。
困难在于绘制出真实大脑的链接图谱。哪怕只是创造出一个合适的昆虫大脑,我们可能都要花费多年,不过,已经开始有人以虚拟方式创造秀丽线虫的大脑。线虫是从事这项工作的好选项,因为它的大脑是所有生物体中最为简单的,只有302个神经细胞。
2012年,加拿大Waterloo大学的研究人员们宣布他们创造出了一个大型实用大脑仿真系统,SPAUN,拥有250万个神经元。而欧洲的人脑计划(Human Brain Project)的终极目标就是模拟整个人类大脑。尽管这些数字仿真能够解决现有的许多道德两难,但是,也会带来一些新的问题。首先,为了创造一个虚拟的动物大脑,必须牺牲掉许多真实动物。或许有那么一天,成为标准实验鼠1.0的那只老鼠就是我们扫描最后的一只实验老鼠,而从此以后只有仿真——不过,基础神经学可能要花费多年时间才能造出这种仿真。第二个问题,如果想要利用这些仿真从事药物或其他研究,我们需要确定这种仿真的正确性。真正吸引我的是第三个问题:仿真会有疼痛感吗?我们是不是必须照顾它们的感受就像照顾那些医疗实验当中的受试动物或人?这取决于软件能否感受到痛苦。举个例子,无需使用活体动物,通过观察「虚拟老鼠」遭受电击后的行为,就能够学习心理学。然而,几乎没人思考过,这里是否真的有疼痛发生:本质上,它就是个具有互动性的卡通,类似虚拟宠物玩具。我们会同情它,但是,这就像与一个玩偶说话。重建动物甚至人类的神经链接——这种完整的大脑仿真是另外一个问题。
1978年,在一篇题为《为什么你不能让一台计算机感觉到疼痛》(Why you can’t make a computer that feels pain)的文章中,哲学家丹内特(Daniel Dennett)论证道,我们无法给疼痛下一个足够严谨的定义,因此,也无法建造一台能够感受到疼痛的机器。但是,他也相信,最终可能也会造出这样的机器,而在某些时候,体贴的人会避免踢到机器人。其他哲学家,比如约翰·塞尔认为,无论仿真多么精致,它始终只是 以复杂方式进行更新的数字:纯粹的软件不可能有真实的意向或意识。也有可能是这种情况,系统需要有一个身体作为支撑以立于真实世界之中。 但是,如果对象是神经科学家 Rodney Cotterill 创造出的数字宝贝(Cyber Child),情况又会怎样呢?它是Cotterill 为他的意识理论建造的模型,一个虚拟的仿真婴儿,有着以真实生物为基础的大脑和身体。它有着诸如血糖水平等的身体内部状态,而在大脑不同区域会有活动。婴儿能够对这些内部状态做出反应,它能学习并需要进食——如果营养水平太低,它会「死亡」——它也会哭,会挥舞双臂。是的,这是一个非常简单的有机体,但是被要求具有意识。这里有点怪异:如果Cotterill的理论是对的,那么,原则上,这个数字宝贝可能已经有过体验和感受。
有机体获取最优进化是大脑运行的动机所在:这是我们感受疼痛,喜悦和计划的全部关键。如果仿真大脑做到完美模拟大脑运行,就会得到基于相同的内在互动模式而产生的相同行为。从外部来判断它是否获得了真实经验是不可能的,不管是何种经验都是无法判断的。对于软件能否感受痛苦或者这是否关乎道德问题,存在着很大的异议。那么,接下来我们应该如何继续? 我的建议是:安全要比遗憾来的好。假设仿真系统同样具有有机生物体般的意识属性,以此为基础采取相应的措施。如果刺激仅仅导出一些神经噪音,你有理由不去关心;但是你制造出来一只行为很像真鼠的仿真老鼠,你应该像对待实验室中的老鼠一样对待它。
我同意这为计算神经科学带来了麻烦。但是,也许这本该属于道德的范畴。当制造出一个仿真脊椎动物时,我们应该向政府申请动物实验指导方针。通过拒绝导致疼痛感信号的实验,我们避免制造仿真的疼痛感。但是我们也可以在生物技术上取得进步,因为在模拟的时候,我们可以(暂时)忽略疼痛机制,模拟出完美的仿真止痛药,或者关掉与疼痛有关的神经活动。我们可以按照原则监控发现仿真大脑的任何疼痛感并在第一时间停止它。这同样是一个关乎生存质量的命题:我们已经认识到给动物以良好环境的重要性。构造与现实环境一样的虚拟环境还有一段路要走。虚拟老鼠同样会需要毛发,胡须,气味,感觉就像真的在窝里一样。 关于安乐死?活着的有机体的生命只有一次,死亡是永恒的,意味着失去了存在的唯一机会。但是仿真的大脑不同,可以从备份中重新恢复。实验老鼠1.0会不断的从过去的备份中醒来,唯一与之前一次不同的就是没有了上次实验的记忆。喜悦与疼痛也许此时仍然起作用。
从道德层面看,制造一百万次的极乐体验以抵消一次的痛苦刺激对老鼠而言也许是一种道德上的补偿。
长期来看,我相信会创造出仿真大脑。相比于只能探问的动物,仿真大脑的的精神状态可以轻松地被确定。可以找一位不相信软件能具有意识的杰出智者,扫描他的大脑,然后询问这个生成的仿真(软件)它是否能感觉到自己的意识。如果回答是:「……是的,我需要去写篇论文!」我们就拥有了充足的证据表明会出现一种「生命」,它达到了足够的智能水平,拥有内省能力和道德价值从而获得公民权利。到那时,我们应该好好对待这些「软件动物」,以防万一。