研究人员详细介绍了一种新型攻击,可以通过向网络输入增加少量噪声来提高神经网络的能量消耗

2021-05-07 07:09:23

新闻:一种新型的攻击可以提高AI系统的能量消耗。以同样的方式对互联网的拒绝服务攻击寻求堵塞网络并使它无法使用,新攻击强制了深度神经网络,以符合必要的计算资源,并减慢其“思维”过程。

目标:近年来,对大型AI型号的昂贵能源消耗的越来越关注导致研究人员设计更高效的神经网络。一个类别,称为自适应多退出架构,通过根据它们的努力来拆分任务来解决。然后它花费了每个所需的计算资源量。

假设你有一张狮子的照片直接在相机上,完美的照明和狮子蹲在一个复杂的景观中,部分隐藏在景观中。传统的神经网络将通过其所有层次通过两张照片并花费与每个层都花费相同的计算。但是输入自适应多出口神经网络可能在达到必要的信心的必要阈值之前通过一层通过第一张照片来称呼它是什么。这缩小了模型的碳足迹 - 但它也提高了其速度,并允许它部署在智能手机和智能扬声器等小型设备上。

攻击:但这种神经网络意味着如果您更改输入,例如它的封装,可以更改它需要解决的计算量。这使得黑客可以利用的脆弱性,因为在本周的学习陈述国际会议上举行的新论文中概述的马里兰州网络安全中心的研究人员。通过向网络的输入增加少量噪声,它们使得它感知输入更困难并加起来其计算。

当他们假设攻击者有关于神经网络的完整信息时,他们能够最大限度地消失。当他们认为攻击者没有信息时,他们仍然能够减缓网络的处理,并将能源使用增加20%至80%。正如研究人员发现的那样,这是攻击跨越不同类型的神经网络转移。博士学位学生和纸张同步恋说,设计一个图像分类系统的攻击足以破坏许多人。

警告:这种攻击仍然有点理论上。输入 - 自适应架构尚未在现实​​世界应用中使用。但研究人员认为,这将很快从行业内的压力转化,以部署更轻的重量神经网络,例如智能家居和其他物联网设备。教授认为这项研究的教授铎杜米特拉斯说,需要更多的工作来了解这种威胁可能会产生损害的程度。但是,他补充说,本文是提高意识的第一步:“对我来说重要的是引起人们的注意,这是一个新的威胁模型,这些类型的攻击可以完成。”