大型科技垄断如何扭曲我们的公共话语

2020-05-30 05:18:21

早在大流行危机之前很久,人们就广泛关注科技对我们话语质量的影响,从造谣运动到影响运动,再到两极分化。

诚然,我们彼此交谈和谈论世界的方式都发生了变化,无论是形式上(得益于话语向在线平台的转移),还是实物上,无论是我们书面话语中非语言元素(表情符号、表情包、ASCII艺术和表情符号)的兴起,还是随着互联网的发展而兴起的网络骚扰和旅队运动。

对我们话语变化的一个常见解释是,最大的科技平台利用监控、数据收集和机器学习来操纵我们,要么是为了提高参与度(因此也就是页面浏览量和广告收入),要么是为了说服我们做一些不真实的事情,例如,说服我们购买我们不想要的东西,或者说服我们支持我们本来会反对的政客。

关于这种关系,有一个简单的故事:通过收集大量关于我们的数据,并将自我修改的机器学习算法应用于这些数据,大型科技公司可以向我们传递那些从我们的关键能力那里溜走的信息,不是用理性改变我们的想法,而是用一种技术上的魔力来改变我们的想法。

这个故事起源于大科技公司本身。程序性广告和定向营销(包括政治营销)的营销主张向潜在客户承诺,他们可以通过Big Tech为他们的想法购买受众,这将把其庞大的数据存储库与机器学习相结合,并压倒我们的认知防御,将我们转化为产品或想法的客户。

我们应该始终对营销主张持怀疑态度。这些不是同行评议的期刊文章,它们是商业吹嘘。事实上,这些说法说服营销人员向大型科技公司提供数十亿美元,并不能保证这些说法是真实的。毕竟,商界有权势的决策者相信那些最终被证明是错误的事情的历史由来已久。

很明显,我们的话语正在发生变化。多年来一直处于边缘地位的想法获得了新的中心地位。这些观点有些是我们喜欢的(性别包容性、种族正义、反垄断情绪),有些是我们不喜欢的(排外、阴谋论、否认气候变化科学和疫苗)。

我们的世界也是由技术主导的,所以我们世界的任何变化都可能涉及到技术。理清技术和话语之间的因果关系是一个棘手的问题,但也是一个重要的问题。

大技术公司有可能发明了一种高科技形式的魔力,但无论你信不信,大技术公司正在影响(和扭曲)我们的话语的方式有很多不那么有争议,也更明显。

显然,Big Tech非常善于瞄准精确的受众,这是整个广告技术行业的价值主张。你需要联系太平洋沿岸的留学生,在中西部攻读物理或化学研究生课程吗?没问题。广告商重视这一特点,但任何希望影响我们话语的人也是如此。

定位人们不仅仅是为了一则广告为观众买单。想要接触到关心他们问题的人的积极分子可以利用这一功能动员他们支持他们的事业。不认识任何外出的同性恋者可以找到在线社区来帮助他们理解和发展自己的身份。患有慢性病的人可以与其他与他们有共同问题的人谈论他们的疾病。

这种精确度对任何持有非主流观点的人都有好处,包括那些持有我们不同意或反对的观点的人。Big Tech可以帮助你找到在种族主义或性别歧视骚扰运动中与你合作的人,或者煽动仇恨的政治运动。

演讲需要参与者:如果你找不到感兴趣的人和你讨论一个深奥的话题,你就不能讨论它。Big Tech已经从根本上改变了我们的话语,让想要谈论晦涩话题的人很容易找到讨论者,使原本根本不可能发生的对话成为可能。有时那是好的,有时是可怕的,但它与其他任何时候都完全不同。

有些谈话是有风险的。在不宽容的文化中谈论你的同性恋倾向可能会让你受到排斥,或者让你受到骚扰和暴力。在一个吸食大麻不合法的地方谈论你对大麻的亲和力可能会让你被解雇,甚至入狱。

事实上,许多在线对话都是在私人空间进行的,这意味着人们可以说出他们本来会保守秘密的话,以免遭到报复。

并不是所有这些东西都是好的。被抓到制作欺骗性的政治广告可能会让你与选举监管机构陷入麻烦,也会把支持者送到你的对手那里。广告宣传你的企业基于种族、性别或性取向的歧视可能会让你遭到抵制或起诉,但如果你能找到漏洞,让你针对某些同意你歧视议程的群体,你就可以赢得他们的企业。

保密允许人们对同意他们的人说非法的和社会不能接受的事情,大大减少了这种言论的后果。这就是为什么私人言论对社会进步至关重要,也是为什么私人言论有利于煽动仇恨和暴力的人。我们相信私下言论,并且已经为之奋斗了30年,因为我们相信它的好处--但我们不否认它的代价。

与目标相结合,保密可以提供一种非常有说服力的话语形式,不仅因为你可以犯下不道德的行为而不受惩罚,还因为不受欢迎的少数群体可能会低声说出太危险的想法。

科技行业的集中产生了单一的答案文化。对许多人来说,谷歌是一个先知,它的答案--排名靠前的搜索结果--是明确的。

这其中有一个很好的理由:谷歌几乎总是正确的。在搜索框中键入布鲁克林大桥有多长,你会得到一个既符合维基百科,又符合其基本来源的答案,即纽约市地标保护委员会1967年的报告。

然而,有时谷歌会被那些想把谎言强加给我们其他人的人骗去撒谎。通过系统地探索谷歌的搜索排名系统(这个系统沉浸在保密之中,并不断受到搜索引擎优化行业的分析),不良行为者可以而且确实会改变谷歌的顶级搜索结果,欺骗系统返回错误信息(有时,这只是一个愚蠢的错误)。

这可能是转移我们话语的一种非常有效的手段。来自可靠来源的错误答案自然会被认为是表面上的,特别是当错误答案看似合理的时候(在布鲁克林大桥的长度上增加或删除几码),或者在提问者实际上根本不知道答案应该是什么的地方(将光速增加数万英里/秒),尤其是当错误答案似乎可信的时候(在布鲁克林大桥的长度上增加或删除几码),或者在提问者不知道答案应该是什么的地方(将光速增加数万英里/秒)。

即使谷歌没有故意给出错误的答案,它仍然可以给出错误的答案。例如,当一个引用被广泛错误地归类并后来被更正时,谷歌可能需要几个月甚至几年的时间才能停止在其最高搜索结果中提供错误归类。的确,在这样的情况下,有时谷歌永远不会答对,因为从谷歌得到错误答案的人在自己的帖子上重复了这一点,增加了谷歌找到错误答案的来源数量。

这也不仅仅局限于谷歌。谷歌不能控制的狭义垂直搜索--交友网站、专业社交网站、一些在线市场--通常在各自的领域占据主导地位,同样也受到搜索者的依赖,他们认为这些搜索是万无一失的,尽管他们可能会承认这样做总是明智的。

结果是,我们谈论什么,以及我们如何谈论它,在很大程度上取决于我们问谷歌问题时谷歌告诉我们的是什么。但这并不依赖于谷歌改变我们现有的信念:如果你确切知道光速是多少,或者布鲁克林大桥有多长,糟糕的谷歌搜索结果不会改变你的想法。相反,这是关于谷歌填补我们知识的空白。

还有一个次要的相关问题,那就是截然不同的断断续续的习语。搜索气候骗局得到的结果与气候危机的搜索结果不同,与气候变化的结果也是不同的。尽管这三个词都指的是相同的潜在现象,但它们反映了对它的截然不同的看法。您用来启动搜索的术语将引导您进入不同的资源集合。

这是一个长期存在于话语中的问题,但数字世界加剧了这一问题。

广告支持的网站从页面浏览量中赚钱。他们提供给你的页面越多,他们可以向你展示的广告就越多,他们就越有可能向你展示你会点击的广告。广告并不是很有效,即使它们具有很高的针对性,而且你看到的广告越多,你就越习惯它们的推销,所以需要大量的页面浏览量才能产生持续的点击量,而保持稳定收入所需的页面浏览量往往会随着时间的推移而上升。

增加页面浏览量很难:人们有固定的时间预算。平台可以通过为你提供令你满意的建议来增加你的参与度,但这很难做到(想想Netflix的推荐引擎吧)。

但平台也可以通过让你生气、焦虑或愤怒来增加参与度,而这些情绪在自动化过程中更容易产生。在你的在线会话中注入令人精疲力竭的评论、令人震惊的图片或古怪的主张,从长远来看,可能会让你感到厌烦,但从短期来看,这些都是产生过多点击的可靠来源。

这对我们的话语有明显的影响,放大了人类自然的倾向,想要参与到对你有意义的话题的争论中去。它会促进愤怒的、徒劳无益的讨论。这不是精神控制--人们可以选择忽略这些建议,也可以远离争议--但采用这种策略的平台往往会表现出不和谐、愤怒的性格。

内容审核非常困难。任何试图为什么可以发布,什么不可以发布创建规则的人很快就会发现,这些规则永远不会完整-例如,如果你将某些行为归类为骚扰,那么你可能会发现,仅仅比你指定的稍微轻一点的行为,也会被接收方的人体验为骚扰。

尽管这很难,但在规模上变得困难得多,尤其是在服务跨文化和跨语言的情况下:尽管很难判断某人在与你来自相同的文化背景、说你的母语时是否越界,但解释来自不同背景的人的贡献要困难得多,语言障碍又增加了一层令人难以置信的复杂性。

拥有数亿(甚至数十亿)用户的单一平台的崛起意味着,我们很大一部分公共话语是在温和政策的阴影下进行的,这些政策没有-也不可能-是完整或管理良好的。

即使这些政策的错误率极低-即使只有一千条被删除的评论或帖子是过度热心执法的受害者-拥有数千亿用户的系统每天也会产生数千亿条帖子,这加起来就是每天数百万次的审查行为。

当然,并不是所有的温和政策都是好的,有时,糟糕的法律制度会让温和政策变得更糟。例如,一项名义上旨在终止性交易的法案Sesta/Fosta从一开始就过于宽泛和含糊,它催生的温和政策几乎结束了公共论坛上关于人类性行为的某些类型的讨论,包括一些实现了Sesta/Fosta提高性工作者安全的名义目标的论坛(例如,性工作者保留性工作者潜在客户名单的论坛)。这些对象总是受到武断的温和标准的约束,但塞斯塔/福斯塔让本来就很困难的谈论性的工作实际上是不可能的。

同样,“通信体面法”要求将联邦政府资助的互联网连接(如公立学校和图书馆中的连接)上的成人资料列入黑名单,从而取消了对大量合法资料的访问权限,包括提供关于性健康和福祉以及处理性骚扰和性侵的信息的网站。

换言之,除了考虑不周的节制政策外,平台还容易出现执行不力的执行错误。著名的是,Tumblr安装了一个自动过滤器,旨在屏蔽所有成人内容,该过滤器会屏蔽无数无害的图像,从提示性的根茎蔬菜图像到Tumblr自己的包含裸体但不构成成人内容的图像示例,因此将被其过滤器忽略。人工和自动内容审核员都会犯错误。

有时,错误是随机和奇怪的,但一些话题比其他话题更有可能引发意外审查:人类的性行为,虐待和暴力(尤其是性暴力)幸存者的讨论,甚至是名字或家庭听起来或看起来像被过滤器禁止的单词的人(越南人Fhuc被AOL的聊天过滤器困扰,住在斯肯索普的英国人也是如此)。

这种意外审查的系统性意味着,整个话语领域很难甚至不可能在数字平台上进行。这些话题是一种机器迷信的受害者,一台电脑在没有人类程序员的批准或意图的情况下疯狂地禁止了它们,程序员的疏忽、弱点和短视导致他们按照糟糕的规则编程,之后它们干脆从现场消失,让机器大规模地重复他们的错误。

从数字网络最早的日子开始,世界各国政府就一直在为在线服务何时以及是否应该为其用户的所作所为负责而苦苦挣扎。根据在线提供商服务的国家的不同,他们可能会阻止或先发制人地删除侵犯版权、裸体、露骨的色情材料、侮辱王室的材料、诽谤、仇恨言论、骚扰、煽动恐怖主义或宗派暴力、计划实施犯罪、亵渎神明、异端,以及许多其他难以定义的交流形式。

对于温和团队来说,这些政策很难始终如一地正确执行,但由于第三方故意试图通过对他人进行虚假声明来骚扰或压制他人,这项工作变得更加困难。

在最简单的情况下,潜在的审查者只是向平台提交虚假报告,希望通过懒惰、疲惫或困惑的主持人,以便禁止某人或删除言论。

然而,随着平台制定越来越精细的规则,关于什么是理由,什么不是理由,巨魔获得了一种新的武器:对这些规则的百科全书式的了解。

想要利用平台进行善意讨论的人,相对于那些想要扰乱这种讨论的律师来说,处于劣势。前者有他们想要沟通的兴趣和工作。后者的兴趣和工作打乱了话语。

规则变得越复杂,不守信用的行为者就越容易找到理由举报他们的对手,而守信的行为者就越难避免越过规则集中的一条界限。

认为大技术公司可以通过间谍和分析我们来绕过我们的批评能力来塑造话语的想法既是自私自利的(因为它帮助大技术公司销售广告和影响服务),也是不可信的,应该以极端的怀疑态度看待。

但你不一定要接受非同寻常的主张,才能找到大型科技公司扭曲和贬低我们公共话语的方式。大型科技公司的规模让它变得不透明和容易出错,即使它让维持一个民间和富有成效的讨论和辩论空间的工作变得不可能。

大型科技公司的垄断--以及随之而来的锁定机制,将用户的数据和社会关系扣为人质--消除了人们担心不满意的用户可能会转向竞争对手而可能产生的任何责任。

强调通过监管措施遏制大型科技公司的操纵策略,产生了矛盾的效果,即与大型科技公司的竞争对手一起进入市场的成本更高,也更难进入。一项旨在遏制大型科技公司的法规将伴随着小科技公司不可能负担得起的成本,并成为主导数字世界的许可证,伪装成对松懈标准的监管惩罚。

科技公司的规模和主导地位导致了明确、明显、有毒的公共言论。好消息是,我们有处理这一问题的工具:拆分、合并审查、对垂直整合的限制。也许在大型科技公司被缩减规模后,我们仍会发现,我们必须解决某种机器学习的迷恋问题,但如果是这样的话,当大型科技公司被剥夺垄断租金以保护自己不受试图通过政策和法律改变其行为的影响时,我们的工作将会轻松得多。(工业和信息化部电子科学技术情报研究所陈冯富珍译为“华尔街日报”,编者注:这句话的意思是:“大科技”用来保护自己免受试图通过政策和法律来改变其行为的企图的困扰,但如果是这样的话,我们的工作就会轻松得多。)