Microsoft Open Sources逆决,AI安全风险评估工具预装了可用于逃避和窃取AI型号的算法

2021-05-05 21:08:31

Microsoft今天开放式逆行,旨在帮助开发人员测试AI和机器学习系统的安全性的工具。该公司表示,逆决可以使组织能够进行评估,以确保其业务中使用的算法是强大的,可靠和值得信赖的。

AI正在越来越多地部署在保健,金融和防御等政策行业。但组织在采用风险缓解策略时落后于落后。 Microsoft调查发现,25个业务中的25个表示,他们没有正确的资源来保护他们的AI系统,并且安全专业人员正在寻找此空间的具体指导。

微软表示,逆行诞生了公司需要评估AI系统的漏洞,以获得积极保护AI服务的目标。该工具始于专门编写的攻击脚本语料库,然后将AI模型变形为自动化产品,以按比例进行基准多个系统。

在引擎盖下,逆决是一个命令行实用程序,为对抗性框架提供一层,预先加载可用于逃避和窃取模型的算法。逆决寻求向安全社区提供发布的攻击,同时提供从中构建,管理和启动模型的攻击的接口。

在使用逆决的AI系统上进行穿透测试时,安全团队可以选择默认设置,设置随机参数,或为广泛漏洞覆盖进行自定义。具有多种型号的组织可以使用USTIONFIT内置自动化来扫描 - 可选地多次才能创建运营基线。

逆机还提供日志记录以记录针对目标模型的攻击。随着Microsoft Notes,遥测可能会驱动工程团队,以提高他们对系统中失败模式的理解。

在内部,微软表示,它使用逆端作为其AI红色团队运营的一部分,并在AI开发阶段捕获漏洞,在他们击中生产之前。该公司表示,它与多个客户进行了测试,包括航空航天巨头空中客车,该航空公司正在开发AI澳大利亚州AI服务的AI平台。 “AI越来越多地用于工业;展望保护这项技术是至关重要的,特别是了解在问题空间中可以实现特征空间攻击的地方,“空中客车的高级网络安全研究员Matilda罗德·罗德在陈述中表示。

像逆天度这样的工具的价值很快就会变得显而易见。 Capgemini的一项研究发现,客户和员工将奖励练习具有更大忠诚,更多业务,更多业务甚至愿意为他们提倡的道德AI的组织 - 而且惩罚那些没有的忠诚。该研究表明,声誉风险既有声誉风险也是对底线的直接影响,这些公司不会仔细接近问题。

基本上,消费者希望信心从操纵中获得安全。 Gartner在1月份发布的AI风险框架的5个优先事项的建议之一是,组织“[a] Dopt特定的AI安全措施,防止对抗攻击,以确保阻力和抵御能力。”研究公司估计,到2024年,实施专门的AI风险管理管制的组织将避免两倍的负面AI成果,因为那些没有。“

根据Gartner报告,到2022年,30%的AI Cyber​​attacks将利用培训 - 数据中毒,模型盗窃或对抗样本来攻击机器学习动力系统。

逆决是微软更广泛推动解释,安全和“公平”AI系统的一部分。该公司对这些挑战的解决方案的尝试包括AI偏见检测工具,一个开放的对抗性AI框架,减少偏见错误,AI伦理清单和委员会(Aether)的内部努力,建议A​​I追求。近日,微软首次借鉴了白启,一个用于差异隐私的工具包,以及Fairlearn,旨在评估AI系统的公平性,并减轻任何观察到的算法的不公平问题。

VidtureBeat' S使命是成为技术决策者的数字城市广场,以获得有关转型技术和Transact的知识。您网站提供有关数据技术和策略的基本信息,以指导您的领导您的组织。我们邀请您成为社区的成员,访问:门控思想领导者内容和对我们奖化事件的折扣访问,如转换2021:了解更多

成为会员