福克斯:个人隐私的形象“伪装”

2020-07-22 23:35:29

2020年是机器学习的分水岭之年。它见证了商品化机器学习的真正到来,互联网用户可以很容易地获得深度学习模型和算法。GPU比以往任何时候都更便宜,更容易获得,新的训练方法,如转移学习,使得使用更小的数据集训练强大的深度学习模型成为可能。

但可访问性机器学习也有其不利之处。《纽约时报》克什米尔·希尔(Kashmir Hill)最近的一篇文章介绍了不受监管的面部识别服务clearview.ai,它现在已经从互联网和社交媒体上下载了超过30亿张人们的照片,在数百万公民不知情或未经他们许可的情况下,利用这些照片为他们建立面部识别模型。Ai展示了使用深度学习构建用于监控和跟踪的侵入式工具是多么容易。

那么,我们如何保护自己不受未经授权的第三方构建面部识别模型的影响,无论我们走到哪里,都能识别我们呢?法规可以而且将有助于限制上市公司使用机器学习,但对私人组织、个人,甚至其他有类似目标的国家的影响微乎其微。

芝加哥大学的沙子实验室已经开发了Fawkes 1,这是一个算法和软件工具(在你的电脑上本地运行),让个人能够限制如何使用自己的图像来跟踪他们。在更高的层次上,Fawkes获取你的个人图像,并对它们进行微小的、像素级别的更改,这些更改是人眼看不见的,这一过程我们称之为图像隐形。然后,你可以像往常一样使用这些披着斗篷的照片,将它们分享到社交媒体上,发送给朋友,打印或显示在数字设备上,就像处理任何其他照片一样。然而,不同的是,如果有人试图用这些照片来建立一个面部识别模型,伪装的图像会教给模型一个高度扭曲的版本,让你看起来像你自己。隐形效应不易检测,不会在模型训练中造成误差。然而,当有人试图使用未经更改的您的图像(例如,在公共场合拍摄的照片)来识别您的身份,并试图识别您的身份时,他们将失败。

Fawkes已经过广泛的测试,并被证明在各种环境中有效,与最先进的面部识别模型(Microsoft Azure Face API、Amazon Rekognition和Face++)相比显示出100%的有效性。我们正在添加更多的材料来解释Fawkes是如何工作的以及为什么工作。目前,请参阅下面指向我们的技术论文的链接,该论文将在8月12日至14日举行的即将举行的USENIX安全研讨会上发表。

Fawkes项目由沙子实验室的两名博士生艾米丽·温格(Emily Wenger)和肖恩·山(Shawn Shanan)领导,重要贡献来自沙子实验室来访者、加州大学圣地亚哥分校(UC San Diego)目前的博士生张家云(音)和同样是沙子实验室博士生的李慧英(音译)。教师顾问是沙子实验室联席主任和纽鲍尔教授本·赵(Ben赵)和希瑟·郑(Heather Zeng)。