华尔街日报:Facebook 故意忽略其算法将用户划分的研究结果
根据《华尔街日报》的一份新报告显示,Facebook 在 2018 年向高管们提交的一份内部报告发现,该公司非常清楚其产品(特别是其推荐引擎)引发了分歧和两极分化。然而,报告指出,尽管警告说这可能会对社会造成影响,但 Facebook 领导层还是忽略了调查结果,并在很大程度上试图免除党派分歧及其直接导致的其他极化形式的责任。报告表示,变化可能会对保守派产生不成比例的影响,并可能损害用户参与度。演示文稿中的一张幻灯片显示:「我们的算法利用了人脑对分裂的吸引力」。该小组发现,如果不对其推荐引擎的这一核心要素进行检查,它将继续为 Facebook 用户提供「越来越多的分裂性内容,以争取用户的关注并增加在平台上的时间。」《华尔街日报》报道表示,2016 年编制的另一份内部报告称,在 Facebook 上加入极端主义组织的人中,有 64%的人这样做是因为该公司的算法向他们推荐了该方法。(The Verge)