可解释的深度学习:初学者的实地调查指南

2020-05-05 09:53:24

下载PDF摘要:深度神经网络(DNN)是许多学习任务中实现人类水平性能的不可或缺的机器学习工具。然而,由于其黑箱性质,本质上很难理解输入数据的哪些方面驱动网络的决策。在各种现实场景中,人类需要根据outputDNN做出可操作的决定。这样的决策支持系统可以在立法、执法等关键领域找到。重要的是,做出高层决策的人可以确保DNN决策是由在决策支持系统部署的上下文中适当的数据特征的组合驱动的,并且所做的决策在法律或伦理上是可以辩护的。由于DNN技术正在以惊人的速度发展,解释DNN决策过程的新方法和新研究的发展已经成为一个活跃的研究领域。开始研究可解释的深度学习的实践者可能会被该领域采取的过多的正交方向吓倒。在定义什么是能够解释深度学习系统的行为以及评估一个系统的解释能力方面存在着普遍的困惑,这进一步加剧了这种复杂性。(#**$$}{##**$$}。为了缓解这个问题,这篇文章为那些不熟悉这一领域的人提供了一个深入学习解释的现场指南。实地调查指南:1)讨论了研究者在解释性研究中加强的深度学习系统的特点;2)将解释性放在其他相关深度学习研究的背景下;3)介绍了定义有助于解释性深度学习的基础方法的空间的三个简单维度。该指南旨在为那些刚刚开始从事该领域的人员提供一个易于理解的入门指南。