Facebook最新的“群体性”灾难只会让它更毒

2020-10-07 16:25:22

Facebook正在推动另一套新功能和政策,旨在最大限度地减少选举日最后关头的危害,同时也为用户增加社区。但这些功能无助于缓解现有问题-它们可能会对用户和社会造成新的、更广泛的伤害。

最新的问题是Facebook处理群组的方式发生了一系列令人沮丧的变化。上周,Facebook宣布了另一种新的方式来帮助更多的人找到社区并与之联系,无论你想不想看到,都可以把这些社区放在你面前。组选项卡和您的个人新闻源都将推广来自您未订阅的组的组内容,希望您能够参与到这些内容和组中。

这些变化是Facebook十多年来一直在做出的令人沮丧的用户体验决定之上堆积起来的新的、小的不便。但它们是Facebook试图通过黑盒算法塑造每位用户体验的最新例证,以及这种方法不仅伤害了个人,也伤害了整个世界。在这一点上,Facebook如此努力地无视专家关于如何降低毒性的建议,以至于看起来Facebook并不想以任何有意义的方式改善。它的领导层似乎根本不在乎这个平台会造成多大的伤害,只要钱还在滚滚而来。

Facebook的群组可以很棒。如果保持合理的规模并进行适当的管理,它们可能会带来令人难以置信的好处,特别是当它们的成员可能没有时间、资源和知识来组合独立托管的论坛解决方案时。我发现私人团体有助于联系我女儿学校的其他家长,我的一些朋友也从癌症幸存者和失去孩子的幸存者团体中受益匪浅。

但这些都是我们,用户,寻找并加入的群体。来自其他未订阅组的未经请求的内容并不总是受欢迎的。最近几周,我自己注意到,当我试图使用Facebook日益敌意的应用程序与我经常使用的少数几个朋友和家人小组互动时,会出现来自我不是其成员的小组的帖子。那些突如其来的帖子包括我一个月前明确故意留下的两个组的内容,因为它们让我的生活变得更糟。

让这样的内容也出现在你的个人新闻馈送中(这还没有向我推出)显然更糟糕。科技作家罗布·佩戈拉罗(Rob Pegoraro)(偶尔为Ars撰写文章)在体验了这一新功能后,在我妈妈和哥哥之间关于她最新帖子的一条简短评论帖子旁边大肆炒作,这比我预期的更令人毛骨悚然。(他补充说,Facebook对参与性的痴迷需要被推向阳光,我同意这一观点。)。

与此同时,Facebook在网络和移动设备上都对用户界面进行了一系列调整,这使得在该平台上推广高质量的参与度变得更加困难,特别是在群体中。首先,所有群组现在都默认按最近活动排序,而不是按最近发布的帖子排序。按最近活动排序会将用户推向已经有评论的帖子--但之后每篇帖子都会按评论最多的帖子排序,这是一种难以理解的混乱,似乎与对话本身几乎没有任何关系。这是一种令人费解的混乱状态,似乎与对话本身几乎没有任何关系。这是一种令人费解的混乱状态,似乎与对话本身几乎没有任何关系。这是一种令人费解的混乱状态,似乎与对话本身几乎没有任何关系。用户可以再次选择按“所有评论”或“最新评论”排序,但这些选择不会持久。“无论是出于设计还是根据缺陷,按最近发布的帖子进行排序的决定也不会很麻烦,您每次发布评论或在帖子之间导航时都需要重新选择它。”

有意义的、深思熟虑的对话-即使是在规模小、严肃、节制良好的群体中-几乎已经变得不可能维持下去。这也会在小范围内驱使狙击、争吵和极端主义。

Facebook首任货币化主管蒂姆·肯德尔(Tim Kendall)在9月份向国会作证说,Facebook的增长纯粹是由追求这种吹嘘的参与度标准推动的。他将该公司比作大型烟草公司,并哀叹社交媒体对社会的影响。

肯德尔告诉国会,我和其他人在过去15年里建立的社交媒体服务以惊人的速度和强度将人们撕裂。至少,我们已经侵蚀了我们的集体共识--在最坏的情况下,我担心我们正在把自己推向内战的边缘。

肯德尔于2010年离开公司,但Facebook的高级管理人员多年来一直知道,该平台奖励极端主义、分裂内容,并推动两极分化。

早在今年5月,“华尔街日报”(Wall Street Journal)就获得了内部文件,显示公司领导人在2018年的一次演示中就这些问题发出了警告。我们的算法利用了人脑对分裂的吸引力,只需一张幻灯片就能读懂。演讲警告说,如果不加检查,Facebook将向用户提供越来越多的分裂内容,以努力获得用户的关注并增加在该平台上的时间。

更糟糕的是,“华尔街日报”发现,Facebook完全意识到用于群组推荐的算法是一个巨大的问题。2016年,Facebook的一名内部研究人员发现,在她调查的超过三分之一的德国群体中,有极端主义、种族主义和阴谋论内容。据“华尔街日报”称,她在向高级领导层所做的陈述中发现,所有加入极端主义团体的64%都要归功于我们的推荐工具,包括你应该加入的团体和发现工具。演示文稿说,我们的推荐系统加剧了这个问题。

Facebook在一份声明中告诉“华尔街日报”,自那以来,它已经走过了很长一段路。一位发言人说,自2016年以来,我们学到了很多东西,今天的公司已经不同了。但显然,Facebook还没有学到足够的东西。

在美国,暴力的极右翼极端分子依赖Facebook小组作为沟通的方式,而Facebook似乎没有采取什么行动来阻止他们。例如,Facebook在6月份表示,它删除了数百个与极右翼反政府运动有关的账户、页面和群组,今后将不允许这样做。然而,在8月份,一份报告发现,自禁令颁布以来,已经创建了100多个新的群组,而且很容易就避开了Facebook删除这些群组的努力。

“今日美国”周五报道称,Facebook上致力于反面具者的群组也出现了类似的趋势。尽管已经有20多起新冠肺炎的已知病例与白宫爆发的疫情有关,但声称支持唐纳德·特朗普总统的COVID否认者在脸书上聚集了数千个群,斥责任何呼吁戴口罩的政客或公众人物。

近年来,随着阴谋论和极端主义的兴起,专家们向社交媒体平台发出了强烈而一致的信息:你需要将其扼杀在萌芽状态。相反,通过向用户推送未经请求的群组内容,Facebook选择放大这个问题。

在谈到QAnon的传播时,“纽约时报”记者Sheera Frenkel上个月说,我们一次又一次听到的一个想法是,Facebook应该阻止其自动推荐系统推荐支持QAnon和其他阴谋的团体。

反诽谤联盟(Anti-Defamation League)在8月份发布了一项研究,发现Facebook上不仅仇恨团体和阴谋团体猖獗,而且Facebook的推荐引擎仍在向用户推送这些团体。

一周后,华尔街日报报道,从3月到7月,QAnon相关小组的成员人数增长了600%。“华尔街日报”当时表示,研究人员还表示,社交媒体让人们很容易找到这些帖子,因为它们耸人听闻的内容更有可能被用户分享,或者被公司的算法推荐。

这些建议允许极端主义内容传播到普通社交媒体用户,否则他们可能不会看到这些内容,从而使问题变得更糟。在这一点上,不听从学者和专家的建议不仅是粗心大意,更是令人愤慨。

Facebook的政策将审核和判断的责任推给了用户和群组管理员,让他们成为对内容负责的第一双眼睛--但当人们提交报告时,Facebook通常会忽视这些报告。

许多Facebook用户至少有过一次这样的经历,他们向该服务标记了危险、极端或违反规则的内容,结果Facebook回复说,有问题的帖子没有违反其社区标准。该公司在关键问题上采取行动的记录非常糟糕,在现实世界中产生了一系列毁灭性的后果,这让人几乎没有信心它会迅速采取行动,解决这种扩大集团覆盖范围可能会带来的问题。

例如,根据BuzzFeed新闻获得的一份内部报告,在威斯康星州基诺沙两人被枪杀之前发布的Facebook事件被报道了455次。根据BuzzFeed看到的报告,Facebook当天收到的所有投诉中,整整三分之二与那次基诺沙事件有关,而Facebook却什么也没做。首席执行官马克·扎克伯格后来在一次全公司会议上表示,没有采取行动是由于一个操作失误。

更广泛地说,Facebook的一位前数据科学家今年早些时候在一份令人震惊的举报人备忘录中写道,她觉得自己的双手沾满了Facebook不作为的鲜血。全球有如此多的违规行为,这留给了我个人的评估,哪些案件应该进一步调查,提交任务,并在事后升级为优先事项,“她写道。她补充说,当她没有优先调查的地区爆发内乱时,她觉得自己有责任。

Facebook未能对一次事件采取行动,可能是造成基诺沙两人死亡的原因之一。Facebook未能在缅甸采取行动,可能导致了对罗辛亚人的种族灭绝。Facebook在2016年未能采取行动,这可能是外国演员大规模干预美国总统选举的原因。脸书在2020年没有采取行动,这使得人们-包括现任美国总统-传播关于新冠肺炎和即将到来的选举的猖獗、危险的错误信息。

Facebook未能认真对待内容的后果只会不断堆积,然而,推广团体的改变将为极端主义和错误信息的传播创造更肥沃的土壤。Facebook的服务有超过27亿人在使用。世界还能承受多少Facebook的运营失误?