Facebook在其拆分报告中使用的技术官僚语言掩盖了材料存在造成的人类创伤,这些材料之所以存在,只是因为Facebook使其成为可能

2020-08-28 04:49:26

如果你从来没有读过Facebook的“社区标准执行报告”,你可能没有亲眼目睹过用技术官僚的语言来掩盖平台造成的伤害。坦率地说,这是令人震惊的。

该报告提供了有关该公司在删除违反社区标准的材料方面取得了多大效率的统计数据。最新一期,涵盖4月至6月,于本月早些时候出版。这些数字具有欺骗性,因为Facebook的团队经常谈到解决它直接造成的问题。这就好像一个肉类包装商既故意在肉中下毒,又发布了关于让肉更安全的统计数据。

Facebook将仇恨作为其商业模式的一部分进行托管、推荐和放大,同时也吹嘘自己在消除这种仇恨方面取得了成功。人们只需看看本周早些时候可能刺激了抗议者双重谋杀的“基诺沙卫队”民兵组织,就能看到这种商业模式在现实生活中的影响。Facebook用技术官僚的语言来描述其下架数字,目的是掩盖这样一个事实,即在这样的指标背后,是非常真实的人类,他们被仅仅因为Facebook最初使之成为可能而存在的材料所针对和创伤。汽车公司使用碰撞测试假人;Facebook让其数十亿实时用户一直处于“撞车”状态。

Facebook在这些执法报告中的关键指标之一是其“主动检测率”,即在用户报告内容之前被拦截的数量。以“仇恨言论”类别为例:Facebook在其最新报告中表示,在这段时间内发现的2250万条仇恨言论内容中,有94.5%被主动检测到。这就留下了100多万条内容供用户查看和报告。重要的是要记住,当Facebook提供这些数字时,它是在谈论一个“谁”,但它希望你专注于“什么”。

长期以来,Facebook的高层管理人员一直告诉我们,该公司的人工智能在捕捉违反他们“社区标准”的内容方面做得越来越好,但让我们看看这份报告背后的内容。

根据“快速公司”(Fast Company)最近的一篇报道,Facebook“报告了其人工智能系统检测到的内容的百分比与用户报告的百分比。但这两个数字加起来并不等于网络上有害内容的全部。它只代表Facebook看到的有毒内容。

对于其余部分,Facebook打算估计未被检测到的有毒内容的“流行度”,这意味着其用户可能在他们的订阅源中看到这些内容的次数。这一估计是通过对Facebook和Instagram上的内容浏览量进行抽样,测量这些浏览量中有毒内容的发生率,然后将这个数字推断到整个Facebook社区得出的。但Facebook尚未提供仇恨帖子和其他几类有害内容的流行数据。

Facebook也没有积极报告人工智能错过的有毒帖子在最终删除之前对用户保持了多少小时,或者被分享了多少次。此外,该公司不会对错误信息帖子提供类似的估计。

Facebook没有立即回应就其平台上的有毒内容发表评论的请求,以及它是否会在未来的报告中提供更详细的信息。就目前而言,Facebook有一个数字只说明它看到了什么,但还有一个完整的“其他数字”需要根据样本进行估计。它称这个数字为“流行率”。

换句话说,有毒内容太多了,Facebook永远无法真正看到所有内容(你好,规模),所以Facebook有一个基于随机抽样来确定数量的公式。抽象地说,也许每个人都明白这一点,但换个角度想一想:平台上的污水太多了,公司必须不断猜测人们实际看到了多少污水。

大多数企业不会发布报告说“我们没有毒害”这么多人,或者在今年第三季度“我们伤害的人减少了5%”。

在这些数字的背后,人们暴露在恶毒的种族主义、厌女症、变性人恐惧症、否认大屠杀以及危险的错误信息和阴谋论中。这就是Facebook的语言发挥重要作用的地方。这些报告所指的不仅仅是“数据”或数字:它是仇恨喷涌的增量,伤害了个人、他们的社区,也越来越多地伤害了民主和社会。

所以,每次Facebook发布这些数据时,它都是要求我们考虑公司没有伤害的所有人。所有的错误信息都没有传播出去。它没有宣扬的所有阴谋。大多数企业不会发布报告说“我们没有毒害”这么多人,或者在今年第三季度“我们伤害的人减少了5%”。这将理所当然地被视为不可接受。

这种类型的语言也模糊了莎拉·罗伯茨(Sarah Roberts)在《幕后》中写道的对商业内容版主的影响。商业内容版主在筛选Facebook内容的工作中受到了创伤,这样其他每个人都会受到较少的创伤。

Facebook的报告中写道:“最后,因为在这段时间里,我们优先删除有害内容,而不是衡量某些努力,所以我们无法计算暴力和图形内容以及成人裸体和性行为的流行率。”

当你深入挖掘的时候,这是相当令人震惊的。一家价值数十亿美元的公司告诉我们,因为它优先删除一种有害内容,所以无法专注于其他类型的内容。想象一下来自另一家企业的类似情况。我们花了很多时间来确保你的食物里没有老鼠粪便,我们无法筛选金属屑。我们把大部分资源都用在了安全带上,所以这个季度的刹车效果不会很好,…

在这份报告中,Facebook诚信副总裁盖伊·罗森(Guy Rosen)表示:“我们在打击应用程序上的仇恨方面取得了进展,但我们知道,要确保每个人都能舒适地使用我们的服务,我们还有更多的工作要做。”这揭示了Facebook及其使命的核心悖论(有人可能会说是谎言)。马克·扎克伯格(Mark Zuckerberg)、谢丽尔·桑德伯格(Sheryl Sandberg)和其他任何在公共生活中代表Facebook的人都始终如一地表示,公司使命的根本是联系。但显而易见且通常不言而喻的推论是,如果你的使命是将每个人联系起来,你的公司必然会把一些最可恶、最可恨的人与志同道合的人联系起来。Facebook为这些可恶的人提供了额外的帮助,将他们推荐给更多的人。许多记者和研究人员认为,向群体的转变将使平台上的仇恨更加无缝,更难检测到,事实的确如此。

在Facebook上,与其说是平台上的仇恨出了问题,不如说是这个平台在做它设计的事情。不同的想法,让数字掩盖这种毒性的影响,给了Facebook它想要的-被认为是一股有一些不可预见的副作用的向善的力量。不是这样的,我们不应该这样对待它。