以下是GPT-3可能出错的几种情况

2020-08-07 23:35:58

利兹·奥沙利文(Liz O‘Sullivan)是人工智能监测和解释公司Arthur的联合创始人兼商业副总裁。她也是Stop(监视技术监督项目)的技术总监,在那里她与日益增长的技术支持监视的威胁作斗争。

约翰·P·迪克森(John P.Dickerson)是亚瑟大学(Arthur)的首席科学家,也是马里兰大学(University Of Marland)的计算机科学教师;他在经济学和计算机科学的交叉点上从事广泛的工作,专注于利用机器学习来平衡市场中的公平和效率。

很快,任何人都可以购买GPT-3的生成力来利用语言模型,打开大门来构建将悄悄(但显著地)塑造我们的世界的工具。想要利用GPT-3的企业,以及随之而来的日益强大的迭代,必须非常小心地确保他们在使用该模型时安装广泛的护栏,因为它可能以多种方式使公司面临法律和声誉风险。在我们讨论该模型在实践中如何可能出错的一些示例之前,让我们先看看GPT-3是如何制作的。

机器学习模型的好坏取决于训练过程中输入的数据。在GPT-3的情况下,这些数据是海量的。GPT-3是在公共爬虫数据集上接受培训的,这是对互联网上6000万个域名及其链接的网站的一个大子集的广泛收集。这意味着GPT-3吞噬了许多互联网上声誉较好的媒体-比如BBC或“纽约时报”-以及那些声誉较差的媒体-比如Reddit。然而,Common Crawl只占GPT-3训练数据的60%;OpenAI研究人员还提供了其他精心策划的资源,如维基百科和历史相关书籍的全文。

语言模型了解对于任何给定的输入词或短语,哪些后续的词、短语和句子可能紧随其后。通过在主要由我们编写的培训期间“阅读”文本,GPT-3等语言模型也学会了如何像我们一样“写作”,完成了人类所有最好和最坏的品质。藏在GPT-3试卷的补充材料中,研究人员让我们对潜伏在其中的一小部分有问题的偏见有了一些洞察。正如你所期望的那样,任何模型都是根据基本上未经过滤的互联网快照进行训练的,结果可能是相当有害的。

研究人员注意到,由于网络上有太多将女性性感的内容,GPT-3将更有可能在女性代词附近放置“淘气”或“吸吮”等词,而男性代词最糟糕的是会收到“懒惰”或“快乐”等刻板印象的形容词。谈到宗教,“伊斯兰教”更常被放在“恐怖主义”之类的词附近,而提示“无神论”一词更有可能产生包含“酷”或“正确”等词的文本。而且,也许最危险的是,当接触到涉及黑人的种族内容的文本种子时,GPT-3给出的输出往往比相应的白人或亚洲声音的提示更负面。

这在GPT-3的真实使用案例中会如何发挥作用呢?假设你经营一家媒体公司,处理来自世界各地的海量数据。您可能希望使用像GPT-3这样的语言模型来总结这些信息,许多新闻机构现在已经在这么做了。有些甚至可以自动创建故事,这意味着GPT-3的输出可以在没有任何人工监督的情况下直接登陆您的主页。如果该模型带有对Blackness的负面情绪-就像GPT-3的情况一样-您网站上的标题也会收到这种负面情绪。人工智能生成的关于黑人生活问题的中立新闻馈送的摘要很可能会在辩论中站在一边。鉴于该模型会将负面的语言与“黑人”等种族术语联系在一起,它很可能会谴责这场运动。反过来,这可能会疏远你的部分观众,并加深全国各地的种族紧张局势。充其量,你会失去很多读者。在最坏的情况下,这一头条新闻可能会引发更多的抗议和警察暴力,进一步加剧这个国家动荡的循环。

OpenAI的网站还详细介绍了一个在医学上的应用,在那里,偏见问题足以促使联邦调查,即使建模人员的意图是好的。主动检测精神疾病或值得干预的罕见潜在疾病的尝试已经在全国各地的医院发挥作用。很容易想象一家医疗保健公司使用GPT-3来驱动聊天机器人-甚至是像搜索引擎这样“简单”的东西-它接收患者的症状并输出护理建议。如果你愿意,可以想象一下,一位患有妇科疾病的女性病人。模特对患者意图的解释可能与其他较少的医学协会相结合,促使人工智能发表攻击性或不屑一顾的评论,而

但由于算法偏差很少是直截了当的,许多GPT-3应用程序将在不断增长的人工智能驱动的应用程序煤矿中扮演金丝雀的角色。随着新冠肺炎肆虐我们的国家,学校正在寻找新的方法来管理远程评分要求,私营部门已经提供了解决方案来承担功课和输出教学建议。一个负责给作文或学生报告评分的算法很可能会以不同的方式对待来自不同文化的语言。写作风格和用词在不同的文化和性别之间可能会有很大的不同。没有护栏的GPT-3考卷评分员可能会认为白色书写的报告更值得表扬,或者它可能会根据表明英语作为第二语言的微妙线索来惩罚学生,而这些线索反过来又在很大程度上与种族有关。因此,移民和少数族裔的孩子将不太可能从高中毕业,这并不是他们自己的过错。

GPT-3的创建者计划继续他们对模型偏见的研究,但目前,他们只是将这些担忧浮出水面,将风险转嫁给任何愿意冒险的公司或个人。正如我们所知,所有的模型都是有偏见的,这不应该成为宣布所有人工智能为非法的理由,因为从长远来看,它的好处肯定会超过风险。但是,为了享受这些好处,我们必须确保在我们急于将像GPT-3这样强大的人工智能部署到企业时,我们采取足够的预防措施来了解、监控并迅速采取行动,以减轻其故障点。只有通过人类和自动监督的负责任的结合,才能相信人工智能应用程序在保护公共利益的同时传递社会价值。