Mozilla的AI伦理倡导集团提出了在Bug Bounty程序上建模的算法偏置检测程序

2021-03-18 03:45:50

当涉及到检测算法中的偏差时,研究人员正试图从信息安全领域学习 - 尤其是来自Bug Bounty-Hunting黑客,他通过软件代码梳理潜在的安全漏洞。

这些安全研究人员的工作与AI模型的可能缺陷之间的相似之处,实际上是Deborah Raji的工作中心,该研究员是Mozilla基金会的算法危害。

提出了研究,她一直在进行宣传小组的算法正义联赛(AJL),在每年的Mozilla节期间,Raji解释了她的团队如何,她一直在研究Bug赏金计划,看看它们如何应用于检测一种不同类型的滋扰:算法偏差。

BUG啤酒奖励,其中恶意演员在恶意演员利用它们之前在软件代码中发现漏洞的黑客已成为信息安全字段的组成部分。谷歌,Facebook或Microsoft等主要公司全部运行Bug Bounty程序;这些黑客的数量正在乘以,因此,在恶意黑客找到它们之前,公司准备好的财务奖励是公司准备支付以修复软件问题。

"当你发布软件时,有一些脆弱性使软件使软件能够遗忘,信息安全社区已经开发出一堆不同的工具,他们可以用来寻找这些虫子," Raji告诉ZDNet。 "那些人担心,我们可以看到与算法中的偏见问题相比之下。"

作为一个项目的一部分,称为崩溃(算法系统危害的社区报告),Raji一直在查看Bug奖励在信息安全领域工作的方式,以了解同一模型可以应用于AI中的偏置检测。

虽然AI系统变得更加复杂 - 而普遍存在 - 当天,目前没有常见的姿态是检查偏差算法的最佳方法。缺陷AI模型的潜在破坏性效果仅被专门的组织或独立专家透露,没有相互联系。

示例包括隐私国际挖掘促进工作和养老金部(DWP)领导的调查的算法的细节,以解释和斯坦福研究人员在商业上发布的面部识别技术中找到皮肤型和性别偏见。

"现在,很多审计来自不同的纪律社区," raji说。 "该项目的一个目标之一是看看我们如何提出资源,让人们在某种级别播放领域,以便他们可以参与。例如,当人们开始参加Bug Bounties时,他们就会被插入一个对同一件事感兴趣的人群。"

错误赏金程序与AI中的偏置检测之间是明显的。但随着他们挖出的,Raji和她的团队很快发现,定义发现算法危害的规则和标准可能是一个更大的挑战,而不是建立一个软件错误的挑战。

项目提出的第一个问题,即定义算法危害,已经有多个答案。危害本质上与个人联系起来 - 又转过身来,可能与设计AI系统的公司具有截然不同的观点。

即使要建立一个定义和可能是算法危害的定义和可能的层次结构,仍然存在尚未创建的偏差检测方法。

在几十年来,自第一个Bug赏金计划启动(通过1995年通过浏览器Pioneer Netscape),该领域已经有时间开发协议,标准和规则,以确保错误检测对所有各方都有利于有益。例如,Hackerone最着名的Bug Bounty平台之一Hackerone具有围绕漏洞的披露的一组明确的指导,其中包括向目标公司提交机密报告,并允许足够的时间发布补救措施。

"当然,他们有几十年来制定监管环境," raji说。 "但是,他们的很多过程比当前的算法审计空间更加成熟,人们会写一篇文章或推文,它和#39; ll去病毒。"

"如果我们有危害发现过程,就像在安全社区一样,非常强大,结构和正式,具有优先考虑不同危害的明确方式,使公司和公众可见的全部过程,这绝对是帮助社区获得信誉 - 以及公司的眼中,"她继续。

公司在Bug Bounty计划上花费了数百万美元。例如,去年,谷歌向提交漏洞报告的662名安全研究人员支付了662份奖励的660万美元。

但在AI道德空间,动态是完全不同的;根据Raji的说法,这是由于AI研究人员和公司之间的利益不存在。毕竟,挖掘算法偏见可以很容易地导致必须重新设计产品背后的整个工程过程,甚至完全从市场上脱离产品。

Raji记得审计亚马逊'在一项研究中,该技术得出结论,该技术表现出性别和种族偏见。 "这是一个巨大的战斗,他们的反应是令人难以置信的敌对和防守,"她说。

在许多情况下,Raji表示,受算法偏见影响的人口不支付客户 - 这意味着,与信息安全空间不同,公司几乎没有激励,如果发现缺陷,公司可以修复他们的方式。

虽然一个选项是信任公司投资空间,从淫亵技术,raji' t所有的信心。更有前途的大道是以监管的形式对公司的外部压力施加外部压力 - 但也归功于舆论。

是否会担心声誉损害解锁未来AI-BIAS赏金计划的可能性?对于Raji,答案很明显。 "我认为合作只是通过规定或极端的公共压力来实现,"她说。