Facebook人工智能副总裁杰罗姆·佩森蒂(Jerome Pesenti)表示,OpenAI的GPT-3“很容易输出传播有害偏见的有毒语言”,一些批评人士指出了偏见问题

2020-07-23 09:03:20

虽然GPT-3因其能力赢得了许多专家的欣喜若狂的评论,但一些批评家指出了围绕偏见的明确问题。

重要原因:随着人工智能变得更加强大,更加融入日常生活,根除长期存在的偏见和公平问题变得更加重要。

正在发生的事情:OpenAI的研究人员在介绍GPT-3的论文中指出,接受过互联网培训的模特存在互联网规模的偏见。像GPT-3这样在互联网上接受培训的模特将分享互联网的偏见,包括关于性别、种族和宗教的刻板印象。

正如论文的上表所示,女性更多地被描述为与外表相关的形容词,而男性更多地被描述为跨度更广的形容词。

论文还发现,GPT-3将不同种族与不同程度的情绪联系在一起,黑人的排名一直很低。

Facebook人工智能负责人杰罗姆·佩森蒂在推特上发帖表示,担心GPT-3很容易输出有害偏见的有毒语言。

OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)回应说,他也有这些担忧,他认为,非营利组织启动GPT-3闭门测试版的部分原因是为了在它完全上线之前进行安全审查。

他指出,OpenAI引入了一种新的毒性过滤器,默认情况下该过滤器处于打开状态。

最初的论文还发现,GPT-3似乎比以前更小的型号更不容易产生偏见,这提供了一些初步的希望,即尺寸可以帮助将问题降至最低。

注意事项:一种可以生成接近人类质量的文字的系统可能被用于虚假信息、网络钓鱼和其他黑客活动。虽然恶意的人类已经做了所有这些事情,但GPT-3和未来的人工智能系统可以有效地扩大这些努力。

归根结底:如果人工智能产生种族主义或性别歧视内容,那是因为系统是通过观察我们来学习的。这让程序员有责任限制他们的创作。