长期以来,FOB是Facebook危机公关努力的一部分,该举措旨在通过建立审查机构来处理其内容删除引起的投诉中的一小部分,以使其业务摆脱有争议的内容审核决定的影响。它于2020年10月开始接受提交的内容进行审查,并因起步缓慢而受到批评。
FOB今天宣布了第一个决定,表明它选择维持Facebook先前做出的内容审核决定中的一个,从而推翻了这家科技巨头的四个决定。
根据FOB,由五人组成的小组对案件做出决定,该小组由至少一个来自有关地区的成员和不同性别的成员组成。然后,董事会全体成员中的大多数都必须审查每个小组的调查结果,以批准该决定,然后才能发布。
董事会维持Facebook删除内容决定的唯一案例是2020-003-FB-UA案例-Facebook根据其关于仇恨言论的社区标准删除了一个帖子,该帖子使用俄语单词“тазики”(“ taziks”)描述用户声称与亚美尼亚人没有历史的阿塞拜疆人。
在另外四起案件中,董事会推翻了Facebook的收购案,拒绝了该科技巨头先前关于仇恨言论,成人裸体,危险个人/组织以及暴力和煽动政策的评估。 (您可以在其网站上阅读这些案例的概述。)
每个决定都涉及特定的内容,但董事会也发布了九项政策建议。
创建有关健康错误信息的新社区标准,在一处整合并阐明现有规则。这应该定义关键术语,例如“错误信息”。
在内容未达到Facebook迫在眉睫的身体伤害阈值时,采用较少干扰性的手段执行其健康错误信息政策。
增加有关如何缓解健康错误信息的透明度,包括发布关于在COVID-19大流行期间如何执行社区标准的透明度报告。该建议参考了董事会收到的公众意见。
确保始终向用户通知对他们实施社区标准的原因,包括Facebook正在实施的特定规则。 (董事会在这方面针对其所考虑的案例提出了两项相同的政策建议,同时还针对第二个仇恨言论案例指出:“ Facebook缺乏透明度,使得其决定容易误以为该公司删除了该内容,因为用户表达了不同意的观点”。)
解释并举例说明危险个人和组织政策中关键术语的应用,包括“赞美”,“支持”和“代表”的含义。社区标准还应该更好地建议用户在讨论危险的个人或组织时如何明确其意图。
提供根据“危险个人和组织社区标准”被指定为“危险”的组织和个人的公开列表,或至少提供示例列表。
在使用自动执行来审核其内容时通知用户,确保用户在某些情况下可以对人提出自动决策,并通过文本覆盖来改善对图像的自动检测,从而不会错误地标记引起乳腺癌症状的信息进行审查。 Facebook还应该提高其使用自动执行的透明度报告。
修订Instagram的社区准则,以指定可以显示女性乳头来提高对乳腺癌的认识,并阐明在Instagram的社区准则与Facebook的社区标准不一致的地方,后者优先。
董事会表示,它希望Facebook在7天内恢复被删除内容的特定部分。
此外,董事会还写道,Facebook还将“检查是否应将与董事会决策相关的具有相同上下文的相同内容保留在其平台上”。并表示,Facebook有30天时间可以公开回应其政策建议。
因此,看到这家科技巨头如何回应拟议政策调整的清单肯定会很有趣-也许尤其是关于提高透明度的建议(包括在仅由其AI删除内容时通知用户的建议)以及是否是否愿意完全符合自律车辆发布的政策指南。
Facebook建立了董事会的结构和章程,并任命了其成员-但尽管它也为FOB提供资金(间接地通过其建立的管理FOB的基金会),但仍鼓励它独立于Facebook的想法。尽管董事会声称其审查决定对Facebook具有约束力,但Facebook并没有此类要求遵循其政策建议。
还值得注意的是,FOB的审查工作完全集中在撤稿上,而不是Facebook选择在其平台上托管的事情。
鉴于所有这些,不可能量化公司对董事会决策的影响力。
因此,即使Facebook吞并了上述所有政策建议,或者更有可能推出一条公关热线,欢迎FOB对“复杂地区”的“体贴”贡献,并表示将“在前进的过程中将其考虑在内”,它的做法是这样做的。通过定义,调整和资助所涉及的“监督”,从保留了内容审查最大控制权的地方开始。实际的最高法院不是。
在接下来的几周内,FOB可能会在最近接受的一个案件中受到最密切的关注,这与Facebook在本月初煽动对美国首都的暴力袭击后无限期暂停美国前总统唐纳德·特朗普有关。 董事会指出,它将“很快”就此案公开征求公众意见。 它写道:“美国和世界各地的最近事件都凸显了互联网服务做出的内容决策对人权和言论自由的巨大影响,并补充说:“现有方法的挑战和局限性 对内容进行审核时,应引起人们的注意,即Facebook等公司对最重要决定的独立监督的价值。” 但是,当然,这个“监督委员会”不能完全独立于其创始人Facebook。