美国哥伦比亚研究人员发现白人男性程序员在减少 AI 偏见方面表现最糟糕
人工智能的偏见无处不在。从歧视皮肤黝黑患者的皮肤病学模型到不利于公立学校学生的考试评分算法,AI 系统中编码偏见的例子亦是长期的社群讨论话题。但是这些偏见首先是如何产生的?哥伦比亚大学的研究人员试图通过 400 位 AI 工程师创建的算法来发现新洞见,这些算法对大约 20,000 人做出了 820 万个预测。在 顶会 NeurIPS 2020 的合作研究中,研究人员得出的结论是,有偏见的预测主要是由数据不平衡引起的,但工程师的人口分布也起着相应的作用。研究人员写道:「在各种各样的行为理论模型中,有偏见的预测是造成人口隔离和包括劳动力市场,刑事司法和广告业在内的环境中结果差异的原因。」「在过去的五年中,随着将道德规范引入技术培训的计划不断增多,有关该主题的研究和公共讨论已大大增加。但是,很少有研究尝试评估,审计或从这些干预中学习或将其与理论联系起来。」研究人员称,训练数据或缺乏数据并不是造成偏差的唯一原因。他们还发现,两名白人男性程序员的算法预测错误更有可能相互关联。与女性程序员相反,白人男性倾向于犯错误。而在东亚,印度,黑人和拉丁裔的女性工程师和男性工程师中研究人员未观察到这种影响。(VentureBeat)