什么软件可以(和不能)告诉我们关于人工智能偏见的问题,让奥巴马变成白人

2020-06-24 15:29:26

这是一个令人震惊的图像,说明了人工智能研究的根深蒂固的偏见。将美国第一位黑人总统巴拉克·奥巴马(Barack Obama)的低分辨率照片输入到一个旨在生成去肤色面孔的算法中,输出的是一个白人男子。

这也不仅仅是奥巴马的问题。使用相同的算法从低分辨率输入生成女演员Lucy Liu或国会女议员Alexandria Ocasio-Cortez的高分辨率图像,得到的脸看起来明显是白色的。正如一条很受欢迎的推文引用奥巴马的例子所说:“这张照片充分说明了人工智能偏见的危险。”

但是,是什么导致了这些输出,它们到底告诉了我们关于人工智能偏见的什么信息呢?

首先,我们需要稍微了解一下这里使用的技术。生成这些图像的程序是一种名为PULSE的算法,它使用一种称为放大的技术来处理视觉数据。升级就像你在电视和电影中看到的“放大和增强”的比喻,但与好莱坞不同的是,真正的软件不能无中生有地产生新的数据。为了将低分辨率图像转换为高分辨率图像,软件必须使用机器学习来填补空白。

在PULSE的情况下,完成这项工作的算法是由NVIDIA的研究人员创建的StyleGAN。虽然您可能以前没有听说过StyleGan,但是您可能熟悉它的工作。你可以在ThisPersonDoesNotExist.com这样的网站上看到这些令人毛骨悚然地逼真的人脸,正是这种算法负责制作这些如此逼真的人脸,以至于经常被用来生成虚假的社交媒体个人资料。

PULSE所做的是使用StyleGan“想象”像素化输入的高分辨率版本。这不是通过“增强”原始的低分辨率图像来实现的,而是通过生成一个全新的高分辨率人脸来实现的,该人脸在像素化后看起来与用户输入的人脸相同。

这意味着每个脱脂的形象都可以通过各种方式进行升级,就像一套食材制作不同的菜肴一样。这也是为什么你可以用PULSE在高分辨率下看到末日男孩,或者沃尔芬斯坦3D的英雄,甚至哭泣的表情符号是什么样子。这并不是说该算法像“缩放和增强”比喻那样在图像中“发现”新的细节;相反,它是在发明恢复到输入数据的新面孔。

这类工作在理论上已经有几年的时间了,但就像人工智能世界经常发生的那样,本周末在网上分享了一个易于运行的代码版本时,它接触到了更多的受众。这就是种族差距开始突显出来的时候。

PULSE的创建者表示,趋势很明显:当使用该算法放大像素化图像时,该算法更多地生成具有高加索特征的人脸。

该算法的创建者在Github上写道:“似乎PULSE比有色人种的脸更容易产生白脸。”“此偏差可能继承自训练StyleGAN的数据集[.]。虽然可能还有其他我们没有意识到的因素。“。

换句话说,由于StyleGan所训练的数据,当它试图设计出一个看起来像像素化输入图像的脸时,它默认使用白色特征。

这个问题在机器学习中非常常见,这也是面部识别算法在非白人和女性面孔上表现较差的原因之一。用于训练人工智能的数据通常偏向单一的人口统计学,即白人男性,当一个程序看到数据不在这个人口统计学中时,它的表现就很差。并非巧合的是,主导人工智能研究的是白人男性。

但是,奥巴马的例子到底揭示了什么关于偏见,以及它所代表的问题可能如何得到解决,这些都是复杂的问题。事实上,它们是如此复杂,以至于这张单一的图像在人工智能学者、工程师和研究人员之间引发了激烈的分歧。

在技术层面上,一些专家甚至不确定这是数据集偏差的一个例子。人工智能艺术家马里奥·克林曼(Mario Klingemann)认为,脉冲选择算法本身,而不是数据,是罪魁祸首。克林格曼指出,他能够使用StyleGan从相同的像素化奥巴马图像生成更多非白色输出,如下所示:

我不得不尝试我自己的方法来解决这个问题。不确定你是否可以称之为改进,但是通过简单地从潜在空间中不同的随机位置开始梯度下降,你已经可以在结果中得到更多的变化。pic.twitter.com/dNaQ1o5l5l。

-Mario Klingemann(@quasimondo)2020年6月21日

Klingemann说,这些人脸是使用“相同的概念和相同的StyleGAN模型”生成的,但与Pulse的搜索方法不同。他说,我们不能真的从几个样本中判断一个算法。他告诉The Verge:“可能有数百万个可能的面孔都会缩小到相同的像素图案,而且所有的面孔都是同样‘正确’的。”

(顺便说一句,这也是像这样的工具不太可能用于监视目的的原因。这些过程创建的面是虚构的,如上面的示例所示,与输入的基本事实几乎没有关系。然而,在过去,巨大的技术缺陷并没有阻止警察采用技术。)。

但不管是什么原因,算法的输出似乎是有偏见的--在该工具广泛使用之前,研究人员没有注意到这一点。这说明了一种不同的、更普遍的偏见:一种在社会层面上运作的偏见。

“有色人种并不是异类。我们不是作者可以轻易忘记的‘边缘案例’。“。

人工智能问责研究人员黛博拉·拉吉(Deborah Raji)告诉The Verge,这种偏见在人工智能世界里太典型了。拉吉说:“考虑到有色人种的基本存在,忽视不对这种情况进行测试是令人震惊的,这可能反映了我们继续看到的关于谁来建立这样的系统的多样性的缺乏。”“有色人种并不是异类。我们不是作者可以轻易忘记的‘边缘案例’。“。

事实上,一些研究人员似乎只热衷于解决偏见问题的数据方面,这一事实引发了关于奥巴马形象的更大争论。Facebook首席人工智能科学家扬恩·勒昆(Yann LeCun)在推特上回应这张图片后,成为这些对话的导火索。他说,“当数据有偏差时,ML系统是有偏见的”,并补充说,这种偏见是一个“在部署的产品中比在学术论文中”严重得多的问题。言下之意是:让我们不要太担心这个特定的例子。

包括拉吉在内的许多研究人员对勒村的框架提出了异议,指出人工智能中的偏见受到更广泛的社会不公平和偏见的影响,简单地使用“正确”的数据并不能处理更大的不公平。

其他人指出,即使从纯粹的技术修复的角度来看,“公平”的数据集往往也不是。例如,准确反映英国人口结构的人脸数据集将以白人为主,因为英国以白人为主。在这些数据上训练的算法在白人面孔上比非白人面孔上表现得更好。换句话说,“公平”的数据集仍然可以创建有偏见的系统。(在后来的推特上,LeCun承认人工智能偏见有多种原因。)

拉吉告诉The Verge,她也对LeCun的建议感到惊讶,他建议研究人员应该比生产商业系统的工程师更少地担心偏见,这反映了行业最高层缺乏意识。

Raji说:“Yann LeCun领导着一个行业实验室,该实验室以致力于他们经常寻求生产的许多应用研究问题而闻名。”“我真的不能理解为什么那个职位的人不承认研究在建立工程部署规范方面的作用。”The Verge联系了LeCun请其置评,但在发表之前没有收到回复。

例如,许多商业人工智能系统是直接根据研究数据和算法构建的,没有对种族或性别差异进行任何调整。未能在研究阶段解决偏见问题只会使现有问题永久化。

因此,从这个意义上说,奥巴马形象的价值不在于它暴露了单一算法中的一个单一缺陷;而是它在直观的层面上传达了人工智能偏见的普遍本质。然而,它隐藏的是,偏见问题比任何数据集或算法都要深刻得多。这是一个普遍存在的问题,需要的不仅仅是技术上的修复。

正如研究人员维杜希·马尔达(Vidushi Marda)在Twitter上对该算法产生的白色面孔所做的回应一样:“如果需要明确说明--这不是在呼吁数据集的‘多样性’或在性能上‘提高准确性’--而是呼吁从根本上重新考虑设计、开发和部署这项技术的机构和个人。”