Google Fires AI伦理共同负责人Timnit Gebru

2020-12-04 21:51:33

Timnit Gebru是当今最著名的AI研究人员之一,并且是Google AI道德团队的共同负责人,现在不再在公司工作。大约在五月,她在Google促销材料中成​​为特色。据格布鲁(Gebru)称,她周三因向“非管理型员工发送电子邮件,与Google经理的期望不符”而被解雇。她说,向她举报的Google AI员工已收到电子邮件,并告知她在不提供辞职时接受了辞职。 VentureBeat与Gebru和Google AI负责人Jeff Dean取得了联系。如果我们回听,这个故事将得到更新。

@JeffDean将我发给Brain Woman and Allies的电子邮件炒到了我。我的公司帐户已被切断。所以我被立即解雇了:-)

据报道,凯西·牛顿(Casey Newton)的Platformer获得了一份副本,Gebru将有问题的电子邮件发送给了Google Brain Women and Allies listserv。在其中,Gebru对在Google招聘女性方面缺乏进展以及对未能取得进展的责任感表示沮丧。她还说,被告知不要发表研究报告,并建议员工不要再填写多样性文书,因为这没关系。没有提及辞职。

“没有更多的文档或更多的对话将无法实现任何目标。我们刚刚进行了一次黑人研究,如此激动地表现出了愤怒。你知道那之后发生了什么吗?电子邮件中写道:“以最基本的方式沉默。”

当VentureBeat要求发表评论时,Google发言人提供了Platformer文章的链接,其中包含Google AI负责人Jeff Dean周四发送给公司研究人员的电子邮件副本。迪恩在报告中说,由格布鲁(Gebru)和其他研究人员撰写的研究论文已在会议上提交发表,然后完成了审核过程并讨论了反馈意见。作为回应,Dean说他收到了Gebru的电子邮件。

“蒂姆尼特写道,如果我们不能满足这些要求,她将离开Goog​​le并在结束日期工作。我们接受并尊重她从Google辞职的决定。”他说。 “鉴于Timnit在我们的道德AI团队中担任受人尊敬的研究人员和经理的角色,我感到非常遗憾的是Timnit到了一个她对我们正在做的工作有这种感觉的地方。我还感到非常遗憾的是,你们中的数百人刚刚在本周收到了Timnit的一封电子邮件,通知您停止进行关键的DEI程序。请不要我了解进度的挫折感,但是我们有重要的工作要做,我们需要继续努力。”

包括格布鲁(Gebru)在内的众多研究人员倡导多样化的雇用实践,以解决算法偏差以及AI Now Institute主任Kate Crawford所说的“ AI的白人问题”。 2016年AI Now Institute的一份报告发现,谷歌的AI研究人员中有10%是女性。根据Google的2020年多样性报告,约有三分之一的Google员工是女性,而非裔美国人为3.7%,拉丁裔为5.9%,美洲印第安人为0.8%。

杰夫·迪恩(Jeff Dean)现在通过电子邮件向整个研究组织发送电子邮件,散布有关@timnitGebru被解雇的情况的错误信息和误解。

在NBC新闻报道该公司减少多样性计划以避免保守派的反对之后,Gebru于5月批评了Google在多样性方面的努力。得知这一消息后,国会小组委员会质疑该公司在实现多元化目标方面缺乏进展,以及在AI工作的员工是否接受了任何偏见培训。谷歌发言人告诉VentureBeat,任何有关谷歌减少其多元化努力的建议都是“绝对错误的”。当被要求回答国会小组委员会提出的问题时,发言人没有回答。在乔治·弗洛伊德(George Floyd)逝世和历史性抗议活动之后,大约一个月后,谷歌加入了其他大科技公司,并对多种招聘方式做出了新的承诺。

盖布鲁(Nabru)在美国国家劳工审查委员会(NLRB)投诉谷歌的同一天离开了Google,调查发现该公司监视并非法解雇了两名参与劳工组织的雇员。在离开Goog​​le前几天发布的一条推文中,Gebru质疑是否有一项法规可以保护人们免于AI道德社区成员的举报人法律保护。

今天,nlrb说我被非法解雇了。用了一年我希望他们能早日意识到蒂姆尼特的情况。 #ISupportTimnit #BelieveBlackWomen https://t.co/Qkvd4hFrZE

塔瓦娜·佩蒂(Tawana Petty)是底特律的一位数据正义和隐私倡导者,他本周被任命为“黑人生命数据”组织的全国组织总监。今天早上,她发表了关于用面部识别等技术监视黑人社区的遗产以及白人至上主义对人们生活的危害的演讲。她在Gebru举行的“ 100名AI道德杰出女性大会”上发表了主题演讲。

佩蒂说:“她因我们所有人都渴望做的事情而被解雇。”

组织这次会议并曾在谷歌工作的米娅·沙丹(Mia Shah-Dand)称,格布鲁(Gebru)的解雇反映了科技领域的有毒文化,并表明女性,特别是黑人女性需要支持。

我以为这是个玩笑,因为考虑到她的专业知识,技能和影响力,任何人都开除@timnitGebru似乎很可笑。这是我认为科技行业没有希望的许多次。 https://t.co/2Px7nkObke

Gebru因在算法公平性研究中最有影响力的工作而著称,并与可能导致压迫自动化的算法偏差作斗争。 Gebru是“公平,问责和透明度(FAccT)”会议和“ Black in AI”的联合创始人,该组织主持社区聚会并指导非洲裔年轻人。人工智能领域的布莱克星期一在全球最大的人工智能研究会议NeurIPS上举行年度研讨会。

在加入Google之前,Gebru加入了Algorithmic Justice League创始人Joy Buolamwini并创建了Gender Shades项目,以评估来自IBM和Microsoft等主要供应商的面部识别系统的性能。 Buolamwini在2017年的MIT论文中发表了一篇经过同行评审的论文,得出的结论是,面部识别通常在白人男性上效果最佳,而深色肤色的女性效果最差。 Buolamwini和Deborah Raji在2019年进行的这项研究和随后的工作在决定如何规范技术以及人们对算法偏差所构成威胁的态度方面影响很大。

我给Google带来了疑问的好处:AI道德和公平完全是由于Timnit团队的存在以及他们在那里所做的工作,我知道她和其他人是直言不讳的倡导者和活动家。

在Microsoft Research工作期间,她是《数据集的数据表》的主要作者,该论文建议将一组标准信息与数据集一起使用,以便在数据科学家决定使用该数据训练AI模型之前为其提供背景信息。 “数据集的数据表”稍后将成为创建模型卡的动机。

作为Google员工,Gebru与Margaret Mitchell,Raji等人一起在2019年撰写了一篇有关模型卡的论文,该模型提供了有关模型的基准性能信息,供机器学习从业者在使用AI模型之前进行评估。去年,Google Cloud开始为其部分AI提供模型卡,今年夏天,该公司推出了Model Card Toolkit,供开发人员制作自己的模型卡。

今年夏天,Gebru和她的前同事Emily Denton在计算机视觉和模式识别(CVPR)上主持了有关计算机视觉公平和道德的教程,组织者称之为“对我们所有人来说都是必读的”。此后不久,她与Facebook人工智能研究总监Yann LeCun就AI偏见发生了公开争吵,这对于LeCun来说是一个可教导的时刻,他因在深度学习方面的工作而在2019年获得了图灵奖。

AI社区的成员和其他人称Gebru为积极努力拯救世界的人。 今年早些时候,Gebru入选《反叛女孩晚安故事:改变世界的100个移民妇女》,该书于10月发行。 更新时间是上午9:05,时间是塔瓦纳·佩蒂(Tawan Petty)和米拉·沙阿丹(Mira Shah-Dand)的思想,上午11:29,其中包含Timnit Gebru电子邮件的链接和摘要,并在下午1:45汇总。 以及Google AI负责人Jeff Dean的电子邮件链接和报价。