Microsoft、IBM、NVIDIA和其他公司发布了一个开放式框架,以帮助安全分析人员检测、应对和补救机器学习系统面临的威胁

2020-10-23 12:13:17

微软、非营利性组织MITRE Corporation以及IBM、NVIDIA、空中客车和博世等11家组织今天发布了敌意ML威胁矩阵,这是一个专注于行业的开放框架,旨在帮助安全分析师检测、响应和补救针对机器学习系统的威胁。微软表示,它与MITRE合作建立了一个模式,将恶意行为者在颠覆机器学习模型时使用的方法组织起来,支持围绕组织的关键任务系统的监控策略。

根据Gartner的一份报告,到2022年,所有人工智能网络攻击中的30%将利用训练数据中毒、模型盗窃或对手样本来攻击机器学习支持的系统。尽管有这些保护系统的原因,微软声称其内部研究发现,大多数行业从业者还没有接受对抗性的机器学习。在对西雅图公司最近的调查做出回应的28家企业中,有25家表示,他们没有合适的工具来保护他们的机器学习模型。

敌意ML威胁矩阵仿照MITRE ATT&;CK框架,旨在通过一组经过精心策划的漏洞和敌方行为来解决这一问题,微软和MITRE都认为这些漏洞和敌方行为对生产系统是有效的。在多伦多大学、卡迪夫大学和卡内基梅隆大学软件工程研究所的研究人员的帮助下,微软和MITRE创建了一个与广泛类别的对手行动相对应的战术列表。架构中的技术属于一种策略,并通过一系列案例研究进行了说明,这些案例研究涵盖了如何使用威胁矩阵分析众所周知的攻击(如Microsoft Tay中毒、Proofpoint规避攻击和其他攻击)。

“对抗性机器学习威胁矩阵将…。帮助安全分析师进行整体思考。监管MITRE决策科学研究项目的米克尔·罗德里格斯(Mikel Rodriguez)在一份声明中表示:“虽然学术界在研究特定漏洞方面进行了出色的工作,但重要的是要考虑这些事情是如何相互影响的。”此外,通过提供不同漏洞的共同语言或分类,威胁矩阵将促进组织间更好的沟通和协作。

微软和MITRE表示,他们将通过GitHub向社区征求意见,GitHub现在提供了敌对的ML威胁矩阵。研究人员可以提交详细的研究报告,详细说明危害在Amazon Web服务、Microsoft Azure、Google Cloud AI或IBM Watson上运行或嵌入到客户端或边缘设备中的机器学习系统的机密性、完整性或可用性的漏洞。微软表示,那些提交研究的人将保留分享和重新发布他们的工作的许可。

微软Azure工程师Ram Shankar Siva Kumar和公司副总裁Ann Johnson在一篇博客文章中写道:“我们认为保护机器学习系统是一个信息安全问题。”对抗性ML威胁矩阵的目标是将针对机器学习系统的攻击定位在一个框架中,使安全分析师能够将自己定位于这些新的和即将到来的威胁…。它针对的是安全分析师和更广泛的安全社区:矩阵和案例研究旨在帮助制定保护和检测的战略;该框架为对机器学习系统的攻击埋下种子,这样他们就可以在他们的组织中谨慎地进行类似的练习,并验证监控策略。“。

音频问题: 了解基于云的新API解决方案如何解决视频会议中不完美、令人沮丧的音频问题。访问此处