Twitter表示,在用户发现其预览的照片中,黑人和白人显示白人的频率更高后,将进行调查

2020-09-21 06:04:59

Twitter用户看到一条推文的第一眼可能是无意中的种族偏见。

Twitter周日表示,它将调查在照片预览中选择图像哪一部分的神经网络是否更喜欢显示白人的面孔,而不是黑人的面孔。

麻烦始于上周末,当时Twitter用户发布了几个例子,说明在一张以黑人照片和白人照片为特色的图片中,Twitter在时间线上预览照片的时间线上显示白人的频率更高。

尝试一个可怕的实验。推特算法会选哪一个:米奇·麦康奈尔还是巴拉克·奥巴马?Pic.twitter.com/bR1GRyCkia。

公开测试引起了推特的注意,现在该公司显然正在采取行动。

推特沟通团队成员丽兹·凯利(Liz Kelly)告诉Masable,我们的团队在发货前确实进行了偏见测试,在测试中没有发现种族或性别偏见的证据。但从这些例子可以清楚地看出,我们还有更多的分析要做。我们正在调查这件事,并将继续分享我们所学到的和我们采取的行动。

Twitter的首席设计官丹特利·戴维斯(Dantley Davis)和首席技术官帕拉格·阿格拉瓦尔(Parag Agrawal)也在Twitter上插话,称他们正在调查神经网络。

这是一个非常重要的问题。为了解决这个问题,我们在发货时对我们的模型进行了分析,但需要不断改进。我喜欢这个公开的、开放的、严格的测试--并渴望从中学习。Https://t.co/E8Y71qSLXa

这是我试验过的另一个例子。这不是一个科学测试,因为它是一个孤立的例子,但它指出了一些我们需要研究的变量。两个人现在都穿着一样的西装,我遮住了他们的手。我们仍在调查NN。Pic.twitter.com/06BhFgDkyA。

这场对话始于一名推特用户最初在Zoom的面部检测上发布关于种族偏见的帖子。他注意到,他(一个白人)和他的黑人同事的并排形象在预告片中反复显示他的脸。

天哪……你能猜到为什么@Twitter默认只在手机上显示图片的右边吗?Pic.twitter.com/UYL7N3XG9k。

在多名用户参与测试后,一名用户甚至展示了“辛普森一家”中的角色是如何偏爱浅色面孔的。

推特承诺进行调查令人鼓舞,但推特用户应该对这些分析持保留态度。从少数几个例子中声称存在偏见是有问题的。要真正评估偏差,研究人员需要在各种情况下使用大量样本和多个例子。

其他任何事情都是通过轶事来声称存在偏见-保守派在社交媒体上声称存在反保守派偏见的事情。这类争论可能是有害的,因为人们通常可以找到一到两个几乎任何东西的例子来证明一个观点,这破坏了实际上严格分析的权威性。

这并不意味着预览问题不值得研究,因为这可能是算法偏差的一个例子:当自动化系统反映其人类制定者的偏见,或做出具有偏见影响的决策时。

2018年,Twitter发表了一篇博客文章,解释了它是如何使用神经网络做出照片预览决定的。导致系统选择图像一部分的因素之一是较高的对比度级别。这可以解释为什么这个系统似乎偏爱白人面孔。使用对比度作为决定因素的这一决定可能不是故意的种族主义,但更频繁地显示白人面孔而不是黑人面孔是一个有偏见的结果。

还有一个问题是,这些坊间事例是否反映了一个系统性问题。但无论如何,用感激之情和行动回应Twitter上的侦探是一个很好的起点。

这是一个有趣的发现,我们将深入研究该模型的其他问题。非常感谢您的反馈。