原报告下载地址:The AI Now Report
报告参与者
联合主席
Kate Crawford(微软研究院 & 纽约大学)
Meredith Whittaker (Google Open Research)
核心研究团队
Madeleine Clare Elish (哥伦比亚大学)
Solon Barocas (微软研究院)
Aaron Plasek (哥伦比亚大学)
Kadija Ferryman (The New School)
项目委员会
Ryan Calo (华盛顿大学)
Ed Felten (白宫科学与技术政策办公室)
Eric Horvitz (微软研究院)
Terah Lyons(白宫科学与技术政策办公室)
Helen Nissenbaum (纽约大学)
Mustafa Suleyman (DeepMind)
Latanya Sweeney (哈佛大学)
Nicole Wong (前美国副首席技术官)
目录
「AI Now」概览
建议要点
「AI Now」横跨四个关键主题
1.社会不平等
人工智能系统如何助长不平等的偏见和歧视?
人工智能系统将会造福多数群体还是少数群体?
2.劳动力
人工智能会影响工作需求吗?
人工智能会如何影响雇佣关系?
3.医疗保健
人工智能会如何整合到医学研究和医疗保健中?
人工智能对不断增长的数据集和患者检查的需求会如何影响隐私?
人工智能会如何影响患者和医疗提供者?
4.道德伦理责任
我们如何将权力和决策交给人工智能系统?
我们可以如何在已有的专业实践中整合特定于人工智能的道德伦理问题?
建议详述
「AI Now」概览
人工智能(AI)是指涵盖了机器学习、感知、推理和自然语言处理的技术集群。虽然该领域 65 年多来一直在追求原理和应用,但是该领域最近所取得的进展、使用情况以及随之产生的公众热情已将它重新置于了聚光灯下。早期第一代人工智能系统的影响已经显现,挑战和机遇随之而来,它为人工智能领域中即将融入社会和经济领域的未来进展奠定了基础。面对潜在的广泛影响,有必要仔细观察技术在当下的应用方式,它们对谁有益以及它们如何构建我们的社会、经济、生活和人际交往。
「AI Now」是由白宫科学与技术政策办公室和美国国家经济委员会牵头召开的五项内容会议的最后一项。每项活动都从不同角度审查了人工智能,其范围囊括了法律、治理、人工智能安全与控制、人工智能的潜在公益用途及其可能的未来等方面。通过专注于人工智能在未来十年内的社会和经济影响,以及为一些我们需要考虑的问题提供讨论空间并收集不同学科的世界顶尖专家的洞见,「AI Now」补充了这些方法。我们提了这样一些问题:目前由于人工智能的快速部署所引发的社会和经济问题有哪些?我们在当代如何更深入地了解人工智能,才会有助于创造一个公平且公正的未来?
为了树立讨论基础并使讨论有重点可循,「AI Now」确定了人工智能的四个关键主题:医疗保健、劳动力、不平等和道德伦理。
在选择这些主题的过程中,我们选择了劳动力和医疗领域来代表极为重要的社会系统——这些领域已经用上了早期的人工智能系统,并提出了跨越国内外社会许多方面的复杂而紧迫的挑战。我们选择了社会的不平等和道德伦理这两个主题,因为它们是该领域中最被关注的问题。人工智能系统将会增加还是减少社会的不平等,以及我们能否制定出道德规范来确保人工智能造福的是广大群众?
通过吸引人们对于人工智能系统的短期好处和新兴应用的关注,并通过邀请跨领域专家来增加有价值的观点,「AI Now」开启了一个重要对话——该对话专注于发展评估、研究和验证三个方面的实践,以便确保我们能够在未来受益于人工智能。
建议要点
基于那些为「AI Now」带来见解和专业知识的人们的慷慨贡献,以及基于各相关学科的研究文献,我们给出了下面 7 条高层面的建议。需要注意的是:尽管这些提议源自所有「AI Now」与会者的慷慨才智,但是它们并不代表「AI Now」的任何与会个人、与会组织、主办方或赞助商的观点。
我们将这些建议作为能够执行的实际步骤给出,这样人工智能系统的生产、使用、治理和评估各个不同环节中利益相关者就能使用它们来应对因人工智能在社会和经济领域中的快速部署所带来的短期挑战和机遇。
难题 1:人工智能系统的开发和部署需要重大的基础设施和数据资源。这限制了人工智能创新的机会,并为那些拥有资源访问权限的人提供了机遇。高昂的成本也会限制新进入者的竞争。
建议:多元化并扩大人工智能开发和部署所需资源的访问途径——比如数据集、计算资源、教育和培训,包括参与这种开发的机会。尤其重点关注那些目前缺乏这些资源访问权限的人们。
难题 2:早期的人工智能系统已经扩大了人类的工作范围,并改变了整个劳动力领域的管理结构。参与者们——包括奥巴马总统的经济顾问委员会主席 Jason Furman——的说法表明:低技能工作处在被自动化和人工智能所替代的最危险的位置上。这就提出了一个有关世界上机器会做更多的工作的地方的现有社会安全网(social safety net)和人力资源分布的重要问题。
建议:更新那些公平劳工惯例的定义和框架,从而跟上人工智能管理系统被部署到工作场所中时所产生的结构变化的步伐。还要研究收入、资源分配、教育和再培训的替代模式,从而有能力应对未来那些越来越自动化的重复性工作、劳工动态和就业状况的变化。
难题 3:人工智能和自动决策系统经常作为一个后台进程来部署,对其所影响的事物来说未知且不可见。即使可见,它们可能会提供一些未被充分理解或评价的评估和指导决策。不管可见还是不可见,随着人工智能系统在社会领域的扩散,现在很少有既定的手段来验证人工智能系统的公平性以及改正错误的或有害的决定或影响。
建议:支持研究来开发测量和评估人工智能系统在设计和部署阶段的准确性及公平性的方法。同样,支持研究来开发衡量和处理人工智能一旦被使用所产生的错误及危害的方法,包括为受制于人工智能系统自动化决策的群体所涉及到的通报、限期整改和赔偿的问责机制。这样的手段应优先通报那些处于自动化决策从属地位的人,并优先开发手段来辩驳那些不正确或不利的判决。此外还要研究一下不同社会和经济背景下能够「选择退出(opt out)」这种决策制定的能力会是什么样的。
难题 4:美国目前的法律限制,比如计算机欺诈与滥用法案(Computer Fraud and Abuse Act/CFAA)和数字千年版权法案(Digital Millennium Copyright Act/DMCA),在面对人工智能系统部署的增加将会如何影响公共和私人机构系统的公平与义务这个问题上,正面临着使得基础研究的非法形式变得不可避免的境地。
建议:澄清无论 CFAA 还是 DMCA 都不能企图限制人工智能问责研究。
难题 5:即使人工智能系统正被迅速部署到社会核心领域,比如健康、劳工和刑事司法,我们目前缺乏得到了广泛认同的衡量和评估其社会及经济影响的方法。
建议:支持基础研究用于评价和评估人工智能系统部署于真实世界背景中的社会与经济影响的稳健方法。与政府机构合作,将这些新技术整合到其调查、监管和执法能力中。
难题 6:人工智能系统在社会和经济核心领域的部署所直接影响的群体在系统设计中几乎起不到作用,或者几乎没有一种手段可用来改变他们对于人工智能系统的假设和使用。
建议:与受到自动化决策及人工智能系统的应用所影响的代表和社区成员们合作,来协同设计带有问责机制的人工智能,与那些开发和部署这种系统的人或组织合作。
难题 7:人工智能系统正被部署在社会和经济的关键领域,每个领域都有自己的结构、历史和现有协议。然而,对于人工智能研究的关注主要是技术上的,很少有来自人文背景、经验和社会政治问题等学科的优先考量,比如社会科学和人文学科。此外,人工智能的计算机科学分支严重受制于那些大部分都是相同种族和民族背景的男性。这会限制人工智能创新者的观点及经历,并更有可能导致「与我相像(like me)」的偏见。
建议:努力改善人工智能开发者和研究者的多样性,将全方位的观点、背景和学科背景扩大并纳入人工智能系统的开发中。人工智能领域也应该支持和促进人工智能的跨学科研究举措,结合计算、社会科学和人文主义,多角度看待人工智能系统的影响。
难题 8:在关键的社会领域部署人工智能系统,比如医疗保健、执法、刑事司法和劳工领域,目前职业道德规范方面还没有反映出其社会和经济领域的复杂性。同样,最近强调了道德的那些名校的技术课程,很少将这些原则纳入其实际水平的核心培训中。
建议:与专业组织合作——比如美国人工智能发展协会(The Association for the Advancement of Artificial Intelligence/AAAI)、美国计算机协会(The Association of Computing Machinery/ACM)和电气和电子工程师协会(The Institute of Electrical and Electronics Engineers/IEEE)——来更新(或创建)能够更好地反映出在社会和经济领域部署人工智能和自动化系统的复杂性的职业道德规范。这些变化在教育领域的反映,就是使公民权利、公民自由和道德方面的课程成为任何有志于主修计算机科学的学生的必修课。同样,更新那些统领着被引入人工智能系统专业的职业道德规范,比如应用于医生和医院工作者的规范。
「AI Now」横跨四个关键主题
1. 社会不平等
人工智能系统可以如何使不平等偏见和歧视得到改善?
由于人工智能系统将在重大利益决策中扮演着一个更重要的角色——从信用和保险供应到招聘决策和假释——它们将开始影响到谁会得到重要机遇而谁会被落下。这将权利、自由和基本公平的问题提到了最前沿。
而一些人希望人工智能系统将会有助于克服困扰着人类制定决策的偏见,也有人担心人工智能系统会放大这种偏见,否认其应得的机会并将被剥削阶级置于更加不利的地位。
在这场辩论中,数据将起到至关重要的作用,值得引起高度关注。人工智能系统依赖于给定的数据,而且它们可能会反映出这些数据的特点,包括其创造的世界模型中任何偏见。因此对人工智能系统的影响的考量与围绕大数据的现有争论是密切相关的,比如那些在 2014 年和 2016 年的白宫报告中的相关主题的讨论。
广义上讲,数据中的偏见有两种形式。发生在数据可用时的那一种形式并不能准确反映出它所应代表的现实(由于不准确的测量方法、不完整的数据采集、不规范的自我报告或其他数据收集过程中存在的缺陷);当基本过程被用于测量数据采集本身的目的时所发生的第二种形式,会呈现出长期的结构性不平等(例如由某个行业所收集到的职位晋升数据被用来了解哪些特征可以预测职业成功,而该行业却有系统地偏向晋升男性员工)。前一种偏见有时可以通过「数据清除」或改善数据收集过程来解决;后一种偏见需要对复杂的政治后果进行干预。值得注意的是,虽然有一些在相关问题上做得很好的社区,但却没有一个如何「检测」任何一种偏见形式的共识。
当数据反映了任何一种形式的偏见,用这些数据所训练的人工智能系统就会有产生复制和放大这些偏见的模型的风险。在这种情况下,人工智能系统会加剧建立社会不平等的歧视力度,并可能会采取比人类成见和潜在偏见更不明显的方式(而这可能会受到「智能技术」工作的调整,因此或许会更难与之对抗)。
随着人工智能系统的使用在集体风险管理( collective risk management)领域的引进和扩大,它对更优质人群的吸引力会增加,这可能会危及保险和其它社会安全网所依赖的团结性。准确了解人口中的哪些人将破费更多或更少的这种能力,可以让公司进行更有效的「逆向选择」来确定那些通过避免或拒绝服务而受益的特定群体和个体。
在医疗保险方面,投保人所拥有的特质或表现出的行为如果被人工智能系统识别为某些疾病或会在未来发病的先兆,那么他可能会被收取较高保险费。在这种情况下,那些处境已经很艰难的人可能最终会遭受更多健康状况不佳所带来的经济压力。这就是为什么批评者经常指责说,即使这种预测结果是准确的且保险人的行为是合理的,但其影响最终是不正当的。
通过向组织提供可推断出拒绝照顾或限制所需人群的覆盖的非常精确的信息,我们或许正在解开保险业的一个重要特征。甚至是总统的经济顾问也预测到,这些变化将很可能适用于一个基于风险的价格歧视阵列,而且这种竞争可能会将保险公司推向这条道路。
最终,人工智能在类似保险业等领域内的使用提出了一个基本问题——划出不平等的再生产(reproduction of inequality)与令人反感的歧视之间的分水岭。
虽然被庇护在歧视法之下的规范原则可能会解决这些惯例,这种规定可能不是最终用来弥补经济不平等问题的最有效、最实际或最公平的方法。那些人工智能系统的设计者和部署人员对公平的承诺也很重要。然而歧视法可能是确保人工智能不会导致更多社会不平等的重要一环。
然而如果法律框架限制或禁止这种查询,对人工智能系统中的歧视、公平和不平等的调查可能会受到阻碍。例如在美国,像是 CFAA 和 DMCA 这样积极的法律解释机构则受到该领域研究遇冷的威胁。这两者目前都面临着挑战和改革的需要,以确保必要的研究免于它们的禁令。
人工智能系统将会造福多数群体还是少数?
人工智能系统已经在创造新的方法来产生经济价值,同时这也影响了该价值的分配。在某种程度上,这种分配有利于某些现任团体或人群,人工智能系统有可能会延续或加剧现有的工资、收入和财富差距。
那些能够或被允许开发和实施人工智能系统的群体组成结构是一个会加剧不平等的基本领域。人们预测人工智能会成为一个年均数十亿美元的行业。开发人工智能需要前期的大量投入,包括庞大的计算资源以及大量数据,这两者都花费巨大。如果开发和实现的人工智能的能力没有实现广泛的普及,那么这世界上的一小撮人群将会坐享项目所产生的经济效益将超过人工智能的所产生的费用的盈余部分。这种情况下,那些拥有数据和计算能力来使用人工智能的人将可以获得见解和市场优势,建立出一个成功人士会更加成功的「富者更富」的反馈循环。
同时,如果人工智能和自动化系统减少创造某些商品和服务的成本(而且如果节省的这些费用转移到了消费者身上),它们就可以缩小贫富差距(至少在这些商品和服务的获取方面)。在这种情况下,人工智能系统会提升所有人的生活标准,甚至可以产生一个不断进步的再分配效果。
人工智能系统也能够产生一种全新的谋生方式,比如使那些职业被淘汰的失业者去寻求其他获得资源的方式,或者创造新的就业机会,为受影响的工人提供一个简单的过渡去从事其他形式的有偿劳动。而不是简单地取代工人或减少工人在生产活动利润中的份额,人工智能系统缓解了劳动力的劳累,使他们可以自由追求生活与工作的新形式,增加社会的整体福利。
然而,正如一些评论家所观察到的那样,人工智能系统可能会使某些工人的技能被淘汰,而那些已被自动化取代的工人找到其他替代的有偿就业的机会就很少了。即使工人们能够找到新的就业机会,或许也是一些更低质量的工作,并且相比于那些被人工智能和自动化系统所淘汰的工作,这些工作所提供的稳定性与安全性或许会更少。
此外,如果学习新技能的代价高昂,工人可能无法转向一个新的职业。在这种情况下,人工智能系统不仅会增加不平等,它们还可能会将某些部分的劳动力推向永久性的失业和贫困。这就是为什么理解人工智能系统对劳动力的潜在影响,可以作为理解其对经济平等性影响一个重要方面,并借此作出相应准备。
这些担忧引发了对众多社会安全网络项目与日剧增的注意,其中就包括全民基本收入项目(UBI)。UBI 是一个再分配框架,它将为所有社会成员提供覆盖生活必需的最低资金。UBI 的支持者将它视为一种解决在人工智能系统推进过程中可能导致失业问题的方法。不同于基于需要的福利项目,UBI 会把相同数目的钱提供给社会所有成员。根据支持者的说法,这就消除了针对穷人的管理项目所必要的复杂而昂贵的官僚机构。最重要的是,UBI 的目标是提供一个全民最低收入警戒线, 让所有人生活在该警戒线之上。但它并不是为了确保整个社会的更公平的收入分配。这意味着即使在一个采用了 UBI 的社会中, 不平等的情况依然在增长。某些评论家将 UBI 简单地理解为一种通过使失业者摆脱贫困,以及为企业法人提供一个有效补贴来更少地补偿人类员工并获得更多的利润, 来让日益不平等的状况变得易于接受的方法。
像之前出现的所有技术一样,人工智能系统反映了其创造者的价值观,并有望通过多样化人工智能系统的开发、部署和维护,来创建一个技术促进平等的未来。然而目前,在整个计算机科学领域,特别是人工智能领域,妇女和少数群体仍然缺少话语权。
包容性的缺乏和一直存在的似我误差( 「like me」 bias),可能会限制从业者选择承认或优先关注其他社区的程度。当逐渐意识到多元化群体胜过那些更单一的群体,从业者有充分理由去相信, 提高人工智能领域的多样性将惠及不同人群。为了解决偏见、歧视和不平等的迫切难题,人工智能社区需要借鉴更广泛的观点。
2. 劳动力
当讨论到劳动力和人工智能的关系时,人们往往只会担心将来是否会失业。但当前的研究表明,这一领域实际上有更复杂和更迫在眉睫的问题。这些问题不仅会在广泛意义上影响劳动力市场,还会影响到雇佣关系、专业职责,以及工作在人们生活中的地位。
许多传统的经济学学者都在紧密关注国内的劳动力市场和机构,希望由此研究人工智能的影响。这类研究为我们提供了重要的定性数据,能帮助我们更好地理解宏观经济趋势和劳动力的供需(即有多少就业岗位)。另一方面,社会科学的学者则研究就业本质和工作的动态变化对人们的日常生活的影响。这两方面的观点对于我们研究近期人工智能对劳动力的社会影响和经济影响都十分重要。
人工智能是否会影响就业需求?
自动化在经济领域中的地位已经不是一个新鲜的话题,在长久以来相持不下的辩论中,人们开始讨论人工智能的影响。
直观地看,对于劳动力的需求会随着自动化的范围扩大而减少,因为社会的总工作量是固定的。然而有些经济学家并不认同,他们把上述主张称为「劳动总量固定」谬误("lump of labor" fallacy)。他们认为当一个行业的生产力提高时(由于自动化或其他因素),新的行业会出现,从而产生新的劳动力需求。例如,1900 年时农业劳动力占美国劳动力总量的 41% , 到了 2000 年,这一数字仅为 2%。劳动经济学家 David Autor 与 David Dorn 指出,即使这一数字变化如此之大,从长期看失业率也没有上升,而就业人口比反而上升了。另一些经济学家,例如 James Huntington 和 Carl Frey 则警告人们人工智能会使就业岗位大大减少。
当然,也有观点认为劳动力市场的转型和变动可能和技术发展完全无关,而是受了经济政策的影响。一部分人关注的是现有的机构和监管部门应当在人工智能和自动化系统的发展中扮演一个怎样的角色。例如,Robert Gordon 认为现有的创新浪潮并没有很强的变革性。与此相反,也有很多人认为劳动力市场正在经历技术变革后的转型时期。持此观点的经济学家有 Joseph Stiglitz 和 Larry Mishel,他们认为目前的关键点应该在于修改与人工智能和自动化相关的规章和政策,从而更好地保护劳动者的权益。
与别人不同的是,经济学家 Autor 和 Dorn 观察到「就业两极化」(job polarization)问题的大幅增长,也就是说,中等技能的岗位需求下降,而高级技能和低级技能的工作数量上升。这是因为当新的职位源源不断地出现时,中等技能的职位由于报酬低而无人问津。
例如,很多支持人工智能的工作上是需要人去负责维持基础设施的运行,维护系统健康。在当前流行的人工智能概念的背景下,这样的人力往往是隐形的,它们的价值也因而被低估。这些职位包括打扫办公室的管理员、维修服务器的工作人员、还有所谓的「数据清理员」,他们负责「清洗」数据,为分析做准备。
我们在考虑人工智能对劳动力的影响时,不仅要考虑是否会有新的岗位出现,也要考虑人们是否想做那些工作,以及薪资水平问题。
另外,每当说到人工智能和劳动力的未来,我们往往关注的是传统意义上低薪的行业,比如制造、货运、零售或服务。然而研究表明人工智能将会对所有行业造成影响,包括专业度很高的职位,也就是那些需要特殊培训或者需要高等学位(例如放射学或法律)的岗位。在这种情况下,我们需要解决新的专业责任和赔偿责任的问题。
人工智能将会怎样影响雇佣关系?
近年来,研究人员开始关注依托大数据的人工智能和自动化系统是怎样改变传统的雇佣关系的(从优步到大型零售商使用的自动排程软件,再到工作场所的监控)。
研究表明,虽然这些系统可以增加员工的自主权,但在很多情况下,这些技术也有可能使他们失去自主、引发歧视,造成不公正劳动行为。
例如,越来越多的企业使用以人工智能为技术支持的人员管理和自动排程系统来进行远程人员管理,拉动了经济的增长,但也增加了所谓的「不确定因素」。虽然一些研究人员认为实时排程具有难得的灵活性,但是更多的研究者发现很多员工因为这些系统而感到压力和不确定性。
这些系统管理的员工所感受到的负面体验包括长期未充分就业、经济状况不稳、享受到的福利和保护(一般只发给全职员工)不足,以及无法为家庭或自身制定计划此类结构性问题(甚至不能找另外一份工作,因为这样的工作往往需要员工有全天候的时间灵活性)。更严重的是,往往受到影响的都是女性和少数群体。
此外,当使用人工智能的远程管理系统伤害到了雇员的权益,雇员很难让雇主为之负责,这样一来,他们很容易被任意剥削。比如,类似 Uber 的平台(由大数据和人工智能支持)能够远程控制路线、价格、补贴,甚至人际交流的内容——这些决定以往都是由人工做出的。这类远程管理不仅隐藏了幕后的决策者,它甚至完全不被认为是一种「员工管理」。
由于此类新型管理系统不能被清晰地归入现有的管理模型,类似 Uber 的公司将自己标榜为技术公司,而不是管理者。这样一来,他们就只是提供联络的平台,而不是像传统意义上的雇主那样,为员工负责。这样的背景下,人们只能看到工作的风险,而得不到任何保障(例如税收减负、医疗保险,和其他劳动保障)或可能的赔偿。
3. 医疗保健
医疗保健领域的人工智能系统,像当前其他人工智能系统一样,需要庞大的数据集,并使用复杂的统计模型和机器学习分析数据。目前健康数据的来源(仍在不断增加)包括电子健康记录(EHR)、门诊及保险数据库,以及消费者使用的设备和应用中收集到的患者信息。这些信息已经被用在一系列的人工智能应用当中,从诊断、患者保健、药物研发,到生产、组织,和医疗信息沟通,都对医疗保健大有助益。
人工智能应当怎样与医药研究和医疗保健整合?
人工智能系统和医药研究的整合有着非常可观的前景,我们能够更深入了解疾病的根源、研发新的治疗方法、做出更精准的诊断,甚至能够为每个人量身打造药品。然而,我们需要谨慎对待这样的研究,因为目前仍存在的一些局限性很可能会影响上述目标的达成。
这些局限性包括研究数据集不完整或不准确,它们可能排除了某些少数群体。再加上美国医疗保健体系中盛行的经济激励措施,比如鼓励某种特定的药物研发,或者某种特定的治疗方法。
医药研究所用的数据看起来似乎是普遍客观的,但实际上研究结果可能是部分的、暂时的,或只对某些群体、或某些情况下才成立。以这些数据建立起来的人工智能模型很可能会引入错误的推测。不过,这样的结果并非无法避免。如果人工智能系统使用的数据并没有以上的问题(假设我们能保证这一点),或者使用的框架已经改正这些问题,那么这个系统就很可能修正现有数据库(例如随机对照试验组或其他公共健康数据库)中的偏向性。
假设数据准确且没有偏向性,人工智能和医疗保健研究整合后最有希望做到的是协助诊断,在大量的数据中找到规律,更早地诊断出棘手的疾病。事实上,目前人工智能系统已经在诊断疾病方面取得了显著的成果,包括诊断白血病。在门诊和筛查方面,人工智能系统也能够减少、甚至完全避免误诊。我们知道,误诊很有可能致命,并且成本极高。
在此基础上,人工智能在定义疾病方面扮演着越来越重要的角色。我们必须要注意,所谓「正常」或「普通」的健康标准背后可能隐藏着一些错误的设定,比如 1973 年,美国精神医学学会(The American Psychiatric Association)曾将同性恋列入其权威的《精神疾病诊断与统计手册》(Diagnostic and Statistical Manual of Mental Disorders)。
同样的,既然人工智能系统会与医疗保健直接整合,用于诊断和门诊管理,来往于患者和医务人员之间,那么我们就需要为系统的「专业程度」设定合适的上限。一个人类外科医生需要上医学院,还必须通过严格的考试才能够得到认证,那我们要怎样为人工智能系统设定相同水平的专业程度呢?因为人工智能系统展现出了绝对可靠的专业水平,我们会认为它从不出错。这样的信任意味着这些系统在能力预估和表现评估方面将更少受到指责,这就有可能引发超出现有道德标准之外的新问题。
另外,我们还需关注医疗保健领域的人工智能系统使用应当用在哪、针对谁。虽然我们希望所有人都能够享受到医疗保健,但大量证据表明这一人群的分布很不均衡,贫困人士、非白人,以及女性群体往往处在不利地位。
人工智能系统的引入并不能自动纠正体系中的不平等,反而可能将它们放大。一方面,人工智能可以为各种群体提供定制服务,另一方面,它们也可能忽略那些原本就很少得到关注的人群。如果这些群体没有得到足够的重视,就会影响人工智能系统建立的模型,向那些有条件的患者倾斜。这样的系统只能反映少数幸运儿的情况,最终在理解健康与疾病时也将边缘人群排除在外。
这非常值得引起注意,尤其美国当前的医疗保健状况非常复杂,必然会影响人工智能在医疗保健中的应用与作用,就像过去医疗技术的整合也曾受到影响。
在一面减少成本,一面促进增速的背景下,权益相关的各方(比如政府人员、保险公司、医疗机构、医药企业、雇主及其他等)寄希望于大型数据收集,并希望依靠人工智能来维持他们的研究与保健经济模型。他们的目标都很不错,例如使诊断决策更为准确,或是增加预防保健。
然而,用于整合人工智能等信息技术和医院及其他保健系统的训练、资源、和保养工作并没有得到很好的支持,也没有清晰的预算,导致技术资源和能力分布不均。
人工智能对于数据收集和患者观察将会对隐私有何影响?
人工智能系统对于大型数据集以及病情观察的需求带来了紧迫的问题,这牵涉到病人隐私、信息保密与安全。
目前,要达到为人工智能系统制定的目标,就需要从各种设备、平台及网络上收集越来越多的病人信息。不管是为了利益还是其他原因,这都可能会对大众形成侵扰性监视。虽然诸如同态加密(homomorphic encryption)、差分隐私(differential privacy)和随机隐私(stochastic privacy)等算法也许能够让人工智能系统「使用」数据,而不「看到」数据,但这些算法仍然有待发展,具有广泛性的应用也还没有开发出来。与此同时,在提倡循证医学(evidence-based medicine)、平权医疗法案(Affordable Care Act)由免费医疗转为有偿服务的背景下,对于敏感健康信息的监控和使用只会越来越具有经济重要性。面对人工智能系统,保险公司在证明交叉补贴模型时也可能会倍感压力。例如,尽管 2008 年《基因信息非歧视法》(Genetic Information Nondiscrimination Act)中明确禁止,仍然有越来越多的人将基因风险信息用于保险阶层化。事实上,差别化定价已经是数据分析商的固有做法,不平等以一种新的方式继续着。
随着人工智能系统对数据需求的上升,通过智能设备及其他联网的传感器进行追踪和监控已经变得越来越普遍。这对于现有的隐私保护手段(如《健康保险便利和责任法案》(Health Insurance Portability and Accountability Act))已经构成了威胁。随着人工智能与健康和相关消费产品结合愈加紧密,患者隐私暴露的风险也只会增加。这些精确到颗粒级的数据包含着他们的身份、疾病,或其他从代理数据预测出的健康信息。此外,这些进行数据收集的软件通常是专利所有,而不是开源的(即公开面对外界批评与审查)。虽然最近美国《数字千年版权法》(Digital Millennium Copyright Act)的一项豁免允许检查外部医疗设备的代码,但目前豁免范围外的内部医疗设备也许更加重要。
总的来说,专家已经对物联网设备中联网技术的使用提出了严重安全警告,而医疗设备的问题尤为突出。
人工智能将如何影响患者与医护人员?
现有的和可能出现的人工智能应用将深远影响医护工作的构造,以及它对患者的意义。
许多人工智能系统的目标是充当医护工作的中间人,最终完全取代工作人员。这一步将大大提升经济效率,但更重要的是,这可能会改变患者与医生和其他医务人员之间的常规关系。
关于人工智能取代人类医护人员,常见的例子有机器人外科医生、虚拟人物以及智能陪伴机器人。这些例子引发了一些重要讨论:非人类代理受委托进行护理和陪伴会造成怎样的社会影响?当机器完全取代人类专业人士,而非仅仅辅助的时候,它们提供的是怎样对等的护理?当我们说机器能够「护理」的时候,我们所指的是哪些技能?「护理」的定义又是什么?机器所能提供的对等服务是否以患者的最大利益为依归?
虽然目前陪伴机器人还没能取代人类医护人员,但让患者对自身健康拥有更多话语权的人工智能应用和联网设备数量正在迅猛上升,这也体现出早期人工智能系统与患者直接交互的特征。
直接交互有一些好处,例如患者更健康、对自己更为了解,但也有风险,包括对于患者接收到的信息质量与准确度有潜在误导可能。这也是联邦贸易委员会(FTC)近年来一直想要解决的问题。另外,此类应用很可能将护理与监测的责任转移到患者身上,这对于没有时间、资源或无法使用这些技术的人来说是很不利的。
哪类患者更能从当前变化中获益?如果患者不能很好地管理自己的数据,他们是否只能得到不规范的服务?还有,此类应用的设计者和开发者需要承担哪些新的责任?医疗行业中核心的道德义务又应该怎样与各式各样的工程和设计相整合?
4. 道德伦理责任
人工智能系统的部署带来了新的责任,同时也产生了对诸如职业道德、伦理研究甚至公共安全评估等现存框架的挑战。
近期人们对人工智能系统在道德方面的争议,聚焦于未来人工智能系统可能带来挑战的各种假设,从「奇点(singularity)」的问世和对人类可能产生存在性威胁的超级智能的发展方面便可见一斑。
人们对于具有美好发展前景的人工智能系统的主要讨论,并非其在短期至中期内的伦理意义,包括对于由目前已经大量投入使用的特定任务的人工智能系统所带来的挑战,及其运作方式可能扩大现有的不平等和在根本上改变其内在权力的讨论。
当代人工智能系统所执行的功能多种多样,由于这些系统所作出的显隐性推断,其给传统道德体系带来了新的挑战;并且当这些系统被部署于人类活动中时会产生无法预估的交互作用和产出结果。
鉴于对人工智能系统在资源分配和集中或重组人力资源和信息方面的潜力的广泛应用,我们亟待解决关键的问题来确保这些系统的无害性,特别是对已被边缘化的人群。
所以我们该如何将力量和决策交付给人工智能系统?
人工智能系统在社会和经济领域内的整合需要将社会问题转变为技术问题,如此,它们才能够被人工智能「解决」。这并不是机械的转变:需要将问题转化到可被人工智能系统识别,并要改变、限制有关问题范围的假设和可能的解决方案。
另外,诸如社会问题到技术问题的转变并不能确保人工智能系统会比现有系统更加优越。正如 Ryan Calo 所指出的一样,通常认为人工智能系统(如无人驾驶汽车)会比人类犯的错误更少,尽管可能确实如此,但实际上即使在最简单的系统中,人工智能系统都会无可避免地犯下或许人类都不会犯的新错误。因此在很多情况下,其所引起的道德纷争并不会被恰切解决。
在许多领域,伦理框架的问题往往需要记录证明,如同一份病历,律师的诉讼档案,或研究人员的机构审查委员会证明提交。而它们也为那些感到被不公正对待的病人、客户或被试者提供了赔偿机制。
而当代的人工智能系统却常常未能提供这样的记录和赔偿机制。这种缺陷不仅由于技术不足,还有在被设计时便未将其纳入考虑范畴的原因(例如,当这样的系统由一个公司内部专用时)。
这意味着对那些受影响的人来说,人工智能和其他对特定群体和个人做出测评的预测型系统通常是不容审核与申辩的。这样的人工智能系统做出的决策将会加重各种形式权力的失衡,而这恰是一个关键的道德关注点。
当一个被自动给出的决定影响的个体无法复审、申辩或上诉时(假设他们知道做出决策或合约的是自动化系统),他们便会处于相对无助的地位。
这带来的风险是:人工智能系统会通过削减最弱的质疑他们判决的人的力量来合并权力,并且道德行为的定义将会由设计这些系统的人判定。这种权力可以用十分含蓄的形式表现。例如,我们可以发现很多种类的自动化系统经常在特定的方向上影响或者「微调」个体,这主要是由那些设计、部署(和能从系统中获利)的人决定的。
从头构建人工智能系统,从而潜在地纠正这种失衡或实现替代目标的能力,本身便是受差距支配的。正如上文所述,建立和维护人工智能系统需要大量的计算资源与数据。那些坐拥数据与计算资源的组织相对于尚未拥有的组织便会占有战略优势。
随着人工智能系统更加融入专业环境,如医学、法律、金融等,新的道德困境将在不同行业陆续出现。
例如,人工智能系统在医疗领域的应用给医疗专业人员的道德准则如保密、连续护理、避免利益冲突以及知情同意书等方面的核心价值观带来了挑战。而由于在该领域有不同利益相关者推进各项人工智能产品和服务,对这些核心价值观的挑战可能以新的、意想不到的方式出现。当一家制药公司是特定药物处方的既得利益者,那么一个医生如何在使用被这家公司的药物实验数据培训了的人工智能诊断设备时坚守她避免利益冲突的承诺?尽管这个例子是个假设,它却指向必须在修订和更新职业道德准则的过程中加以解决的棘手问题。
同样,广义地说专业协会管理人工智能技术的开发和维护——美国人工智能协会(The Association for the Advancement of Artificial Intelligence)、计算机协会(The Association of Computing Machinery/ACM)和电气和电子工程师协会(The Institute of Electrical and Electronics Engineers/IEEE)也应考虑道德守则的制定(AAAI 的情况))或仔细修改自己的道德守则(ACM 和 IEEE 的情况)。ACM 和 IEEE 的守则已存在 20 多年,但显然没有解决有关人类的机构、隐私、安全、尊严和人工智能系统的伤害预防与自动化决策系统的核心问题。在这些技术进一步融入社会关键领域的进程中,这将显得越来越重要。
尽管更多的高等教育机构已经开始强调道德在他们的技术和科技领域中的重要性,这样的认知仍旧处于萌芽状态。像公民权利、公民自由和道德实践这类话题在达到统一标准方面要走的路还很长。另外必须指出,虽然在药物应用的监管中处罚违反道德守则的行为十分必要,甚至包括剥夺其在该领域中应用的权利,但在计算机科学和许多其他相关的领域中并不适用。我们不可知大多数计算机科学家若被问起 ACM 和 IEEE 的道德准则时他们是否能够讲述其核心内容;我们同样不可知即使他们熟悉这些准则,他们是否会在雇主或其他诱因下逾越这般不具约束力的法规。
因此从实用的角度来看,在简单地改写和更新伦理框架之外,有必要看一下更广泛的激励机制并确保它们已被制定,这样,坚持道德准则才不会简单只是事后的马后炮,而是相关专业领域中的一个核心问题和在人工智能的学习和实践领域的一个组成部分。
建议详述
这里我们展开在上面简要提出的建议所蕴含的基本原理。
1. 多元化并扩大人工智能开发和部署所需资源的访问途径——比如数据集、计算资源、教育和培训,包括参与这种开发的机会。尤其重点关注那些目前缺乏这些资源访问权限的人们。
在「AI Now」的专家研讨会中,许多人指出创造和训练人工智能系统的方式造价昂贵且限制于很少部分的大型系统中。简单地说,没有大量的资源,DIY 人工智能是不可能的。训练人工智能模型需要大量的数据——越多越好。它所需的计算能力十分昂贵,也十分重要。这限制了拥有这些途径的基础研究,从而限制了以民主方式创造服务于不同人群的人工智能系统的可能性。在基础设施和接触恰切培训数据方面投资可以使竞争环境更加公平。同样地,在现有行业和机构设置中向不同学科和外部评论开放开发和设计过程可以帮助创建人工智能系统更好地满足和反映不同的环境和需求。
2. 更新那些公平劳工惯例的定义和框架,从而跟上人工智能管理系统被部署到工作场所中时所产生的结构变化的步伐。还要研究收入、资源分配、教育和再培训的替代模式,从而有能力应对未来那些越来越自动化的重复性工作、劳工动态和就业状况的变化。
奥巴马总统的经济顾问委员会主席 Jason Furman 在「AI Now」的专家研讨会上表明,美国有 83% 的工作时薪低于 20 美元,意味着人们将面临源于自动化的巨大压力。对于那些时薪在 20 美元到 40 美元之间的中等收入工作,这个数字依旧高达 31%。这可能是劳动力市场中导致人们永久失业的巨变。为确保人工智能系统在劳动力市场中的效率不会导致社会动乱或教育等关键社会机构的解体(假设教育不再被视为通向更好就业的途径),应当深入研究资源分配的代替手段和引入自动化的其他模式。并且应实施有利于巨变前规划齐全测试的政策,同时要预估好其潜在的灾难性后果。
在「代替工作者」之外,人工智能系统在劳动力市场中也有多重影响。它们改变人力资源关系、员工期望,也会改变它自己在工作中的角色。这些改变已在员工身上产生了深刻的影响,并且将对人工智能系统被引入后的实践的公平性产生的影响的认知纳入考虑也是十分重要的。例如,如果其人工智能系统在管理方面成效显著的公司被视作技术服务公司,和雇主相反的是,雇员可能不再被现有法律保护。
3. 支持研究来开发测量和评估人工智能系统在设计和部署阶段的准确性及公平性的方法。同样,支持研究来开发衡量和处理人工智能一旦被使用所产生的错误及危害的方法,包括为受制于人工智能系统自动化决策的群体所涉及到的通报、限期整改和赔偿的问责机制。这样的手段应优先通报那些处于自动化决策从属地位的人,并优先开发手段来辩驳那些不正确或不利的判决。此外还要研究一下不同社会和经济背景下能够「选择退出(opt out)」这种决策制定的能力会是什么样的。
人工智能和预测性系统在评估人们被承认或拒绝的方面起着愈发重要的作用。在很多情况下,人们还未意识到做出影响其一生的决定的是机器而并非人类。甚至即使他们意识到了,也没有对不准确描述进行质疑的标准程序,在对不利决定的驳回上也是如此。我们需要在研究和做技术样板方面加以投入,在人工智能系统愈加被广泛应用于做出重要决策时,应确保其尊重受众的基本权利与自由。
澄清无论 CFAA 还是 DMCA 都不能企图限制人工智能问责研究。
为了对人工智能系统检查、测量、评估其公众影响,和在有关重要的社会问题例如公平与偏见的私人机构决策等必要方面进行研究,研究人员必须被明确赋予在众多领域用多种方法测试系统性能的权利。然而,某些美国法律比如 CFAA 和 DMCA 便威胁要通过取缔「擅自」与计算机系统相互交流的行为来限制或禁止这类研究,甚至在互联网上可公开访问的途径也不可以。这些法律便应澄清或修订,以表明其明确允许这种促进相互交流的重要研究。
5. 支持基础研究用于评价和评估人工智能系统部署于真实世界背景中的社会与经济影响的稳健方法。与政府机构合作,将这些新技术整合到其调查、监管和执法能力中。
目前我们缺乏对人工智能系统在社会与经济中所施影响的严谨的测评与了解。这意味着人工智能系统在未被我们测量或校准其影响的前提下,正在被整合入如今的社会与经济领域,并且正在被部署入新的产品和活动中。这样的情况相当于开展一个实验却不记录任何结果。为确保人工智能系统可为人类带来福音,以协调一致的研究工作来开发严谨的方法从而理解人工智能系统影响便是当务之急。这样的工作有助于塑造跨行业实践,也可应用于政府内部。此类研究与其成果可以比喻为一个早期预警系统。
6. 与受到自动化决策及人工智能系统的应用所影响的代表和社区成员们合作来协同设计带有问责机制的人工智能,与那些开发和部署这种系统的人或组织合作。
在很多情况下,在研究工智能系统的情况和产出结果时,那些受其影响的人才是最具权威性的。特别是考虑到目前人工智能领域中多样性的缺乏,为那些依赖人工智能部署的人大幅提供反馈和设计方向便成了当务之急。并且这些建议应当可构成一个能够直接影响到人工智能系统的发展和更广泛政策框架的反馈环路。
7. 努力改善人工智能开发者和研究者的多样性,将全方位的观点、背景和学科背景扩大并纳入人工智能系统的开发中。人工智能领域也应该支持和促进人工智能的跨学科研究计划,结合计算、社会科学和人文主义,多角度看待人工智能系统的影响。
计算机科学领域缺乏多样性,其中尤其严重的便是缺乏女性;它的严重程度甚至超过了人工智能领域。例如,尽管一些人工智能学术实验室由女性管理,在最近作为该领域最重要的年度会议之一的神经信息处理系统大会中,仅有 13.7% 的女性参与。而缺乏多样性的团体便会更少考虑非团体成员的需求与关注点。在人工智能系统被部署时,当这些需求与关注点是社会和经济制度的核心时,它们在被理解和人工智能的革新中便至关重要。此时聚焦于人工智能的多样性便是关键。同样重要的是,在性别和被保护人群之外,多样性应包含计算机科学之外的多种学科,创建依赖于社会和经济领域实用专业性的发展实践。
许多在进行深入评估人工智能在社会与经济领域的影响时所需的专业知识处于计算机科学领域之外或在计算机科学领域内人工智能系统的子领域之中。这是因为在人工智能被整合与应用的许多领域——如医药、劳动力市场或网络营销等,其本身可研究的内容很丰富。为了切实发展对人工智能影响的严谨评估,我们需要跨学科合作,并且创建在新的方向与领域的研究。
8. 与 AAAI、ACM 和 IEEE 等专业组织合作来更新(或创建)能够更好地反映出在社会和经济领域部署人工智能和自动化系统的复杂性的职业道德规范。这些变化在教育领域的反映,就是使公民权利、公民自由和道德方面的课程成为任何有志于主修计算机科学的学生的必修课。同样,更新那些统领着被引入人工智能系统专业的职业道德规范,比如应用于医生和医院工作者的规范。
在医药与法律等专业领域中,专业研究被可决定实践是否被接受的道德准则管理。而像 ACM 和 IEEE 这类的专业组织的确拥有一套道德准则,但它们通常是过时的,并且未充分解决特定问题,在人工智能系统应用于复杂的社会和经济领域中时总会提出小而无法解决的挑战。尽管医生在处理病患问题时遵守了专业准则,人工智能系统的发展却会在比如协助医生诊断和治疗时提出现存的专业道德准则有时无法解决的道德挑战。人工智能系统的制造者应处理那些由于此类系统的执行使人受到不相称的不利结果影响的情况,而专业准则和计算机科学培训在规定他们的责任时,理应符合实际情况。在人工智能对人类的决策权愈发增加的领域中,专业道德准则应当能够提供安全保障机制来决断人工智能系统和个人利益是否产生冲突。