Twitter和Zoom的算法偏差问题

2020-09-22 03:03:13

这件事始于博士生科林·马德兰(Colin Madland)在推特上谈论一名黑人教职员工与Zoom的问题。根据马德兰的说法,每当说教员使用虚拟背景时,Zoom都会摘掉他的头。

Zoom的一位发言人告诉TechCrunch:“我们已经直接联系用户调查这个问题。”“我们致力于为所有人提供一个包容各方的平台。”

然而,当在推特上讨论这个问题时,算法偏差的问题变得更加严重,因为推特的移动应用程序默认只在预览中显示白人马德伦德的照片。

Twitter的一位发言人在给TechCrunch的一份声明中说:“我们的团队在发货前确实进行了偏见测试,在我们的测试中没有发现种族或性别偏见的证据。”“但从这些例子可以清楚地看出,我们还有更多的分析要做。我们将继续分享我们学到的知识,我们采取的行动,并将开放我们的分析,以便其他人可以审查和复制。“。

Twitter指出,它的首席设计官丹特利·戴维斯(Dantley Davis)发布了一条推文,他自己做了一些实验。戴维斯认为马德兰的面部毛发影响了结果,所以他摘掉了面部毛发,这名黑人教职员工出现在裁剪后的预告片中。在后来的一条推文中,戴维斯说他“和其他人一样对此感到恼火”。不过,我有能力解决这个问题,我会的。“。

推特还指出,卡内基梅隆大学首席科学家维奈·普拉布(Vinay Prabhu)进行了一项独立分析。在他的实验中,他试图看看“种植偏见是不是真的”。

(结果更新)白黑比:40:52(92张图像)使用的代码:https://t.co/qkd9WpTxbK最终注释:https://t.co/OviLl80Eye(我创建了@Cropping_Bias来运行整个实验。正在等待@Twitter批准开发人员凭据)pic.twitter.com/qN0APvUY5f。

Twitter首席技术官帕拉格·阿格拉瓦尔(Parag Agrawal)在回应实验时表示,解决种植偏见是否真实的问题是“一个非常重要的问题”。简而言之,Twitter有时会突显出黑人,有时不会。但Twitter完全做到了,哪怕只有一次,这就足以让它成为问题所在。

这条推特和帖子切中了工作场所发生的事情的症结所在。边缘化的人指出创伤的结果,大多数群体的人致力于证明偏见不会在50%+1%的情况下出现,就好像49%、30%或20%的情况下没有造成创伤一样。Https://t.co/7GRgJyAiGH。

这也说明了一个更大的问题,那就是不良算法的泛滥。正是这些相同类型的算法导致了对黑人的有偏见的逮捕和监禁。它们也是谷歌用来给黑人照片贴上大猩猩标签的算法,微软的Tay机器人也曾成为白人至上主义者。