Facebook Live上的一段自杀视频是如何在TikTok上疯传的

2020-09-13 11:32:23

8月31日,美国退伍军人罗尼·麦克纳特在脸书上直播时结束了自己的生命。自那以后,这段视频已经被删除,但在此之前,这段视频被转发并分享到其他网站上,最终在本周早些时候在TikTok上疯传。再加上Facebook无法阻止流媒体和TikTok与病毒式内容的斗争,很明显,他们阻止有害内容传播的努力并没有奏效。

麦克纳特的朋友乔希·斯蒂恩(Josh Steen)表示,这个问题源于Facebook,他目前正在领导#ReformForRonnie运动,以追究社交媒体公司的责任。斯蒂恩告诉Snope,当麦克纳特还活着的时候,他已经向Facebook报告了直播流,但直到为时已晚才收到公司的回复。即使在那时,他也收到了自动回复,称视频没有违反社区标准。

“当我收到Facebook的第一个通知,他们不会删除这段视频时,罗尼已经去世将近一个半小时了……”这到底是什么该死的标准?“。斯蒂恩告诉斯诺普斯。

本周早些时候,Facebook发表了以下声明:“上个月,我们从Facebook上删除了原始视频,从那以后,我们就使用自动化技术删除了副本和上传内容。”

后来,在9月10日,该公司通知Snope,这段视频在被删除之前在网站上放了2小时41分钟。该公司在一份声明中表示:“我们正在评估如何才能更快地撤下直播流。”斯蒂恩告诉Snope,这两小时41分钟的反应还不够快,而且完全不能接受,因为朋友和家人都受到了视频的影响。

在此期间,这段视频被转发到Facebook的其他群组,并根据Innoe的说法,传播到了像4chan这样的边缘论坛。这些网站的用户随后在Facebook以及Twitter和YouTube等其他网站上重新分享了这段视频。但这段视频真正走红的地方是TikTok。

这种传播的潜在原因之一是TikTok的算法,这也经常被认为是该应用程序成功的功劳。TikTok的主要功能是它的For You页面,这是一个永无止境的视频流,专门为你量身定做,基于你的兴趣和参与度。由于这种算法,完全未知的人通常有可能像病毒一样在TikTok上走红,而他们在其他社交网络上可能很难做到这一点。

TikTok在今年6月发表的一篇博客文章中表示,当视频上传到该服务时,首先会向一小部分用户显示。根据他们的反应--比如观看整个过程或分享视频--视频被分享给更多可能有相似兴趣的人,然后这个反馈循环重复,导致视频像病毒一样传播开来。歌曲剪辑、标签和字幕等其他元素也被考虑在内,这就是为什么用户为了进入For You页面而添加“#for you”标签的原因--如果人们使用这个标签,那么他们可能会被推荐更多具有相同标签的视频。

换句话说,通过使用某些流行歌曲剪辑、标签和字幕,你可能会“玩弄”TikTok算法,诱骗人们观看视频。虽然TikTok没有说这就是本案中发生的事情,但这肯定是有可能的。也完全有可能,随着这段视频的故事流传开来,人们可能只是简单地自己搜索视频,以满足病态的好奇心,这反过来又会促使它在For You页面上一次又一次地被转载。

就TikTok而言,自周日开始出现这段视频以来,它一直在努力屏蔽并删除它。在一份声明中,它说:

我们的系统和我们的审核团队一直在检测和删除这些视频,因为它们违反了我们针对显示、赞扬、美化或促进自杀的内容的政策。我们禁止反复尝试上传视频的账户,我们感谢社区成员出于对个人及其家人的尊重,报告内容并警告其他人不要在任何平台上观看、参与或分享此类视频。如果我们社区中的任何人正在为自杀的想法而苦苦挣扎,或者担心某人自杀,我们鼓励他们寻求支持,我们还提供直接从我们的应用程序和我们的安全中心访问热线的权限。

但该公司正经历着一段艰难的时期。用户们不断想出解决办法,比如在评论中分享视频,或者将其掩盖在另一个最初看起来无害的视频中。

然而,与此同时,TikTok上出现了大量旨在让人们远离这段视频的视频。一些用户和知名创作者已经开始发布警告视频,在视频中他们会说“如果你看到这张图片,不要看,继续滚动。”这些视频也在网上疯传,该公司似乎对此表示支持。

至于人们为什么首先播放这些视频,不幸的是,这在某种程度上是不可避免的。“现实生活中发生的一切都将发生在视频平台上,”行为健康响应(Behavional Health Response)的首席临床官巴特·安德鲁斯(Bart Andrews)说。行为健康响应是一家为处于精神健康危机中的人提供电话咨询的组织。“有时候,这种行为不仅仅是生命的终结。这是一种交流,是向世界发出的最后信息。社交媒体是将你的信息传递给数百万人的一种方式。“。

自杀非营利组织SAVE(自杀意识教育之声)的执行董事丹·雷登伯格(Dan Redenberg)表示:“人们已经变得如此习惯于在网上和社交媒体上生活。”“对于那些可能正在苦苦挣扎的人来说,这是一种自然的延伸,因为他们可能会认为这就是他们会把它放在那里的地方。”他说,有时候,把这些想法放到社交媒体上实际上是一件好事,因为这有助于警告朋友和家人有些不对劲。“他们发出了求救的信息,他们得到了大量的支持或资源来帮助他们走出困境。”然而,不幸的是,情况并不总是这样,行为不管怎样都会通过。

因此,如何最好地防止此类行为,以及阻止它们被分享,取决于社交媒体平台提出解决方案。不幸的是,Facebook对这个问题非常熟悉,因为在过去的几年里,其直播平台上已经发生了几起自杀和谋杀事件。

然而,Facebook已经采取措施来解决这个问题,而Redenberg实际上认为它在这个问题上是技术世界的领先者。(他是领导科技行业自杀预防最佳实践发展的人之一。)。Facebook提供了关于自杀预防的常见问题,为其安全政策团队聘请了一名健康和福祉专家,每当有人搜索自杀或自残时,都会提供一份资源清单,并推出了一款基于人工智能的自杀预防工具,据说可以检测到可能包括自杀想法的评论。

Facebook甚至将自杀预防工具集成到Facebook Live中,用户可以联系到此人,同时向公司报告事件。然而,Facebook表示,它不会切断直播流,因为这可能会“剥夺该人接受帮助的机会”。虽然这是有争议的,但安德鲁斯支持这一观点。“我明白,如果这个人还活着,也许还有希望,也许此刻可能会发生一些事情,阻止他们这么做。”

但不幸的是,就像麦克纳特的情况一样,也存在暴露和错误的风险。其结果可能是创伤性的。雷登伯格说:“在某些情况下,技术进步得还不够快,不足以阻止每一件不好的事情被展示出来。”

亚利桑那大学医学院的临床心理学家乔尔·德沃斯金(Joel Dvoskin)说:“看这类视频非常危险。”“自杀的风险因素之一是如果你的家人中有人(死于)自杀。你在社交媒体上看到的人就像你的家人。如果有人抑郁或脆弱,或者考虑过这一点,(看视频)会让这种可能性变得更加突出。“。

至于人工智能,雷登伯格和安德鲁斯都表示,它在根除有害内容方面做得不是很好。例如,克赖斯特彻奇清真寺枪击案的视频未能识别,因为它是以第一人称拍摄的,或者只是最近在发现和删除新冠肺炎错误信息方面的斗争。此外,无论人工智能变得多么优秀,安德鲁斯相信,糟糕的演员永远会领先一步。

“我们能有一个完全自动化和人工智能的程序来识别问题并锁定它们吗?我认为我们会在这方面做得更好,但我认为总会有办法绕过这一点,愚弄算法,“安德鲁斯说。“我只是认为这是不可能的,尽管这是需要努力的事情.”

雷登伯格和安德鲁斯都表示,与单纯依赖人工智能不同,自动屏蔽和人工调节相结合是关键。“我们必须依靠任何可用的人工智能来识别可能存在的风险,”雷登伯格说。“而像这些公司的内容版主和安全专业人士这样的实际人员需要试图在糟糕的事情发生之前进行干预。”

至于较新的社交媒体公司,他们也需要积极考虑自杀问题。雷登伯格说:“他们必须问一问,他们希望如何在社会公益方面被称为平台。”在TikTok的案例中,他希望它能与Facebook这样在这一领域拥有更多经验的公司联手。即使这段视频是在Facebook上流传的,它也没有在Facebook上疯传,因为该公司设法锁定了它(该公司在更早地主动将其删除方面仍然可以做得更好)。

“任何新平台都应该从老平台的经验教训开始。什么管用,什么不管用,我们想为你的用户创造什么样的环境,“安德鲁斯说。“你有义务确保你正在创造一个环境和规范,并拥有报告机制和算法,以确保环境与你想要的一样真实,因为你可以做到这一点。当用户看到不寻常的事情时,你必须鼓励他们并赋予他们权力,他们有一种机制来报告这一点,你必须找到一种方法来非常迅速地对此做出反应。“。

答案可能还在于创建一个照顾自己的社区。例如,对于TikTok社区站起来警告其他用户注意这段视频的行为,安德鲁斯特别感到鼓舞。“这是互联网自身抗体的奇妙版本,”他说。“这是一个例子,我们看到了互联网最糟糕的一面,但我们也看到了互联网最美好的一面。这些人对这样做没有既得利益,他们警告其他人,但他们不遗余力地保护其他用户免受这种创伤图像的伤害。“。

这就是为什么,尽管有悲剧和痛苦,安德鲁斯相信社会会适应的。他说:“几千年来,随着时间的推移,人类已经形成了一些行为,以找出什么是可以接受的,什么是不可以接受的。”“但是我们忘记了技术,直播,这些都还是那么新。这项技术有时已经超越了我们的机构和社会规范。我们仍在创造它们,我认为我们正在做这件事是很棒的。“。

在美国,国家自杀预防生命线的号码是1-800-273-8255。通过向国内发送短信741741(美国)、686868(加拿大)或85258(英国)可以拨打危机文本热线