Facebook第三季度透明度报告:用户看到的内容有0.1%-0.11%违反了仇恨言论规则; 95%的仇恨言论主动采取主动行动,高于2017年的24%

2020-11-21 12:42:24

Facebook表示,它正在使用人工智能主动检测更多仇恨言论。周四发布的一份新的透明度报告提供了有关今年早些时候政策变化后社交媒体仇恨的更多详细信息,尽管该报告仍未解决一些重大问题。

Facebook的季度报告包含有关仇恨言论盛行的新信息。该公司估计,Facebook用户看到的内容中有0.10%到0.11%违反了仇恨言论规则,相当于“每10,000个内容观看内容中有10到11个仇恨言论”。这是基于随机帖子的样本并衡量内容的覆盖范围而不是纯粹的帖子数,从而捕获了病毒式帖子的效果。不过,尚未得到外部来源的评估。 Facebook诚信副总裁盖伊·罗森(Guy Rosen)在接受记者采访时说,该公司“正在计划并开展审计工作”。

Facebook坚持要在用户举报之前主动删除大多数仇恨言论。它说,在过去的三个月中,约有95%的Facebook和Instagram仇恨言论被删除。

与最初的努力相比,这是一个巨大的飞跃-在2017年底,它仅主动进行了约24%的下架。它还增加了仇恨言论的删除:在2019年最后一个季度删除了大约645,000条内容,而在2020年第三季度删除了650万个内容。有组织的仇恨团体属于单独的审核类别,其增长幅度要小得多从139,900减少到224,700。

Facebook说,其中一些失败是由AI的改进推动的。 Facebook于5月发起了一项研究竞赛,旨在研究可以更好地检测“仇恨模因”的系统。在其最新报告中,它吹捧其能够分析文本和图片的能力,并捕获了诸如下面的图像宏(由Facebook创建)之类的内容。

这种方法有明显的局限性。正如Facebook所指出的那样,“一条新的仇恨言论可能与以前的例子不同”,因为它引用了一种新的趋势或新闻报道。这取决于Facebook分析多种语言并掌握特定国家/地区趋势的能力,以及Facebook如何定义仇恨言论,仇恨言论已经随着时间而改变。例如,否认大屠杀只是在上个月才被禁止。

尽管最近发生了使用人工智能对投诉进行分类的更改,但它也不一定会帮助Facebook的版主。冠状病毒大流行扰乱了Facebook的常规审核做法,因为它不允许主持人查看家中一些高度敏感的内容。 Facebook在其季度报告中表示,其下架数量已恢复到“大流行前的水平”,这在一定程度上要归功于AI。

但是一些员工抱怨说,他们被迫在安全之前被迫返回工作,有200位内容主持人签署了公开请求,要求更好地保护冠状病毒。主持人在那封信中说,自动化未能解决严重的问题。 “ AI不能胜任工作。他们说,重要的言论席卷了Facebook过滤器的行列,而诸如自残之类的危险内容却up不休。

罗森不同意他们的评估,并表示Facebook的办公室“达到或超过”安全工作区的要求。他说:“这些都是非常重要的工人,他们在这项工作中发挥着举足轻重的作用,我们在AI方面的投资正在帮助我们检测并删除此内容,以确保人们的安全。”

Facebook的批评者,包括美国立法者,可能仍然不相信它正在捕捉足够多的仇恨内容。上周,美国15位参议员敦促Facebook在全球范围内袭击穆斯林的帖子,要求提供更多关于特定国家/地区有关其节制做法和仇恨言论目标的信息。 Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)在参议院听证会上为该公司的审核行为辩护,表明Facebook可能会将这些数据纳入未来的报告中。他说:“我认为这将非常有帮助,使人们能够看到我们并对我们的行为负责。”

扎克伯格建议国会应要求所有网络公司跟随Facebook的领导,政策执行主管莫妮卡·比克特(Monika Bickert)今天重申了这一想法。 “当您谈论制定法规,或在美国改革[Communications Decency Act]第230条时,我们应该考虑如何让公司对有害内容采取行动,然后再被很多人看到。今天的报告中的数字可以帮助进行对话。”比克特说。 “我们认为良好的内容法规可以创建整个行业的标准。”