惨痛的教训-里奇·萨顿(2019年)

2020-07-10 00:00:01

从70年的人工智能研究中可以学到的最大教训是,利用计算的一般方法最终是最有效的,而且差距很大。这样做的最终原因是摩尔定律,或者更确切地说,是它对每单位计算成本持续指数下降的推广。大多数人工智能研究都是按照代理可用计算是恒定的(在这种情况下,利用人类知识将是提高性能的唯一途径之一)进行的,但是,在比典型研究项目稍长的时间内,不可避免地会有大量的计算可用。为了寻求在短期内有所不同的改进,研究人员试图利用他们对该领域的人类知识,但从长远来看,唯一重要的是计算的杠杆作用。这两个并不需要彼此背道而驰,但在实践中,它们往往是背道而驰的。花在其中一个身上的时间就是没有花在另一个身上的时间。有一种或另一种投资方式的心理承诺。人类知识的方法往往会使方法变得复杂,使得它们不太适合利用利用计算的一般方法。人工智能研究人员对这一苦涩教训的学习姗姗来迟的例子很多,回顾一下其中一些最突出的例子是有启发意义的。在计算机国际象棋中,1997年击败世界冠军卡斯帕罗夫的方法是基于大规模的深度搜索。当时,大多数计算机国际象棋研究人员对此感到沮丧,他们追求的方法是利用人类对国际象棋特殊结构的理解。当一种更简单的、基于搜索的方法和特殊的硬件和软件被证明更有效时,这些以人类知识为基础的国际象棋研究人员并不是很好的输家。他们说,‘暴力搜索’这次可能赢了,但这不是一般的策略,而且无论如何这也不是人们下棋的方式。这些研究人员想要基于人类输入的方法,但当他们不想这样做时,他们感到失望。在计算机围棋中也看到了类似的研究进展模式,只是又推迟了20年。最初的巨大努力是利用人类知识或游戏的特殊功能来避免搜索,但事实证明,一旦搜索被有效地大规模应用,所有这些努力都被证明是无关紧要的,甚至更糟。同样重要的是利用自我发挥学习来学习价值函数(就像在许多其他游戏中一样,甚至在国际象棋中,尽管学习在1997年第一次击败世界冠军的程序中没有发挥很大作用)。自我发挥学习,以及一般的学习,就像搜索一样,能够进行大量的计算。搜索和学习是人工智能研究中利用大量计算的两类最重要的技术。在电脑围棋中,就像在电脑国际象棋中一样,研究人员最初的努力是利用人类的理解(这样就不需要太多的搜索),直到很久以后,通过采用搜索和学习才取得了更大的成功。在语音识别方面,在20世纪70年代,有一项由DARPA赞助的早期比赛。参赛者包括许多利用人类知识优势的特殊方法-单词知识、音素知识、人类声道知识等等。另一方面,是基于隐马尔可夫模型(HMM)的更新的方法,本质上更具统计学意义,计算也更多。再一次,统计方法胜过了以人类知识为基础的方法。这导致了自然语言处理的所有方面都发生了重大变化,几十年来逐渐发生了变化,统计和计算逐渐主导了这一领域。语音识别领域最近兴起的深度学习是朝着这一始终如一的方向迈出的最新一步。深度学习方法对人类知识的依赖甚至更少,并且使用更多的计算,再加上在巨大的训练集上的学习,从而产生显著更好的语音识别系统。就像在游戏中一样,研究人员总是试图让系统按照研究人员认为他们自己的大脑工作的方式工作-他们试图将这些知识输入他们的系统-但事实证明,这最终适得其反,而且是对研究人员时间的巨大浪费,因为根据摩尔定律,大量的计算变得可行,并找到了一种方法来很好地利用它。在计算机视觉领域,也有类似的模式。早期的方法将视觉设想为搜索边缘,或广义柱面,或根据SIFT特征。但今天,所有这些都被丢弃了。现代深度学习神经网络只使用卷积和某些不变量的概念,性能要好得多。这是一堂重要的课。作为一个领域,我们还没有彻底认识到这一点,因为我们还在继续犯同样的错误。要看到这一点,并有效地抵制它,我们必须理解这些错误的吸引力。我们必须吸取惨痛的教训,在我们认为我们认为没有任何帮助的情况下进行建设。