反击取消文化:来自人工智能领域的案例研究

2021-01-28 22:22:09

谴责取消文化很容易,但是很难改变。值得庆幸的是,我的学术专长领域-人工智能(AI)的最新发展表明,与取消文化进行斗争并非没有可能。就像我在下面解释的那样,人工智能社区的成员在这方面学到的教训可以推广到其他专业亚文化。

为了理解问题的爆发点,有必要简要地研究一下AI的功能。在许多情况下,人工智能算法已部分取代了正式的和非正式的人类决策系统,后者可以选择在组织内部聘用或晋升人员的人。金融机构使用AI来确定谁获得贷款。而且一些警察机构使用AI来预测哪些社区将遭受犯罪困扰。因此,我们一直非常重视确保算法不会复制编码人员针对女性或可见少数群体的隐性偏见。例如,谷歌道德AI团队的联合负责人,计算机科学家Timnit Gebru指出,有证据表明,“商业面部识别系统对深色皮肤的女性错误率更高,而浅色皮肤的男性则具有最小的错误率”。人工智能系统受到创建它们的大多数白人男性程序员的偏见的污染。在与Google和我的大学的同事共同撰写的一篇论文中,她警告说,大型的基于语言的AI系统尤其会鼓励一种“霸权世界观”,这种世界观可以使仇恨言论和偏执永远存在。

这些问题已由AI社区的领先会议神经信息处理系统会议(NeurIPS)处理。在撰写本文时,NeurIPS主页以声明证明了组织者对“道德,公平和包容原则”的承诺。今年,NeurIPS开始要求论文作者包括一节,以描述基础科学可能对社会产生的“更广泛的影响”,无论基础内容的技术多么晦涩。还有一个道德委员会来评估是否有任何论文违反了此类担忧。组织者宣布:“无论科学的质量或贡献如何,提交人都可能出于道德考虑而被拒绝,包括出于创造或加剧不公平偏见的方法,应用或数据”(或毫无争议的是,“具有主要目的伤害”)。

令人震惊的是,NeurIPS论文被基于“道德审查”而被拒绝。在此类评论中,我们如何防范意识形态偏见?从什么时候开始召开科学会议来规范技术论文的道德标准?

在12月初,我使用社交媒体来抵制意识形态石蕊测试的这种相当明显的使用,以限制可以发表和不能发表的内容。最初,我获得了很多支持-Twitter的一项调查(公认的不科学)证明了这一点。那时,由加州理工学院的学者领导,同时也是一家大型科技公司的研究主管,在社会上已经有一小撮社会正义激进分子(已经在该领域众所周知)。

在这些冲突中经常发生这种情况,讨论因双曲线种族主义指控而脱轨。自然,暴民追随了我的大学,而我自己的系远离了我对NeurIPS政策的批评。短短几天之内,一次学术会议上的提交协议就达到了社会正义的圣旨,反对者-我本人中最重要的-被谴责为异端。暴民头目甚至写了冗长的Twitter帖子,列出了喜欢或转发我对她的立场的批评的任何人的名字,暗示他们都是顽固的。

但是随着时间的流逝,真正的激进分子是谁,事情发生了一些有趣的事情。我们社区中许多通常沉默寡言的温和派开始大声疾呼,并谴责对我和我的支持者采取的毫无节制的手段。最后,我没有遭受任何职业后果(至少没有以任何正式方式)。取消人群的头目甚至公开道歉,并承诺要改正。她不再在Twitter上,我们摆脱了AI社区中最恶毒的取消文化霸王。现在,在我们的论坛中再次自由地讨论了被压制的话题。数十名计算机科学系教师甚至致函我们的专业协会计算机协会(ACM),呼吁结束“越来越多的镇压行动,以限制科学研究和辩论的自由和不受束缚的进行。”

Warning: Can only detect less than 5000 characters

Warning: Can only detect less than 5000 characters

获得多数支持。最后,大多数取消者在短期内都不会受到劝阻:他们在调查员中的角色投入过多,因此很容易放弃。我们的目标不是要赢得他们(您不会),而是说服中间更多的人。这些人不发声并不意味着他们就不会在外面看着,读书,思考。

也许最重要的是,请记住,大多数取消尝试都以失败告终。但是,很难知道这一点,因为我们很少听到有关逐渐消失的怪物的信息。取而代之的是,暴民依靠其高地位的胜利使所有人保持一致。他们喜欢自己的运动是不可阻挡的幻觉,而事实上,一旦一大批人对此表示反对,它就成为嘲弄的对象。

因此,即使您从未遭到暴民的袭击,也要发挥自己的作用来抵抗暴民的袭击。正如索尔仁尼琴所说的那样,一个说实话的人可以放下暴政。在一起,我们可以消除取消文化。

Pedro Domingos是华盛顿大学计算机科学与工程荣誉教授。在Twitter上通过@pmddomingos关注他。