Facebook提供更多细节,介绍其在缅甸大选前打击仇恨言论的努力

2020-09-24 11:44:50

2018年11月,Facebook承认没有采取足够的措施防止其平台被用来在缅甸“煽动分裂和煽动线下暴力”。

考虑到包括联合国人权理事会(United Nations Human Rights Council)在内的人权组织指责Facebook助长了针对罗辛亚穆斯林的仇恨言论在缅甸的传播,这是一种轻描淡写的说法。罗辛亚穆斯林是一场残酷暴力种族清洗运动的目标。“纽约时报”2018年的一项调查发现,在以佛教为主的缅甸,军方成员煽动了针对罗辛亚人的种族灭绝,并利用该国使用最广泛的在线服务之一Facebook作为工具,对这个少数群体进行了一场“系统性的仇恨言论运动”。

在几周前的声明中,Facebook表示将扩大其错误信息政策,并通过与缅甸的三个事实核查伙伴-BOOM、法新社事实核查和事实愈演愈烈-合作,删除旨在“导致选民压制或破坏选举过程完整性”的信息。该公司还表示,将标记可能具有误导性的图像,并应用2019年6月在斯里兰卡引入的消息转发限制。

Facebook还表示,在2020年第二季度,它在缅甸对28万条违反了它的仇恨言论社区标准的内容采取了行动,97.8%的内容在被报告之前被其系统检测到,高于第一季度对其采取行动的5.1万条内容。

但是,正如TechCrunch的娜塔莎·洛马斯(Natasha Loma)所指出的那样,“如果不能更好地了解Facebook平台正在放大的内容,包括特定国家的因素,比如随着选举的临近,缅甸发布的仇恨言论是否在增加,就不可能理解有多少仇恨言论通过了Facebook的检测系统,到达了当地的眼球。”

Facebook今天在其新闻编辑室发布的最新声明没有回答这些问题。取而代之的是,该公司提供了一些关于它为缅甸大选做了哪些准备的更多信息。

该公司表示,它将使用技术来识别该国的“与仇恨言论相关的新词和短语”,并删除含有这些词的帖子,或者“减少它们的传播”。

它还将为被其第三方事实核查人员认定为虚假的错误信息引入缅语警告屏幕,让有关选举和投票的可靠信息更容易看到,并通过正在进行的名为“茶话会”(Tea Talks)的每月电视脱口秀节目,以及将其社交媒体分析工具CrowdTangle引入新闻编辑室等项目,在缅甸推广“数字素养培训”。