扎根的语言学习快与慢

2020-09-05 10:46:12

下载PDF摘要:最近的研究表明,大型基于文本的神经语言模型,按照传统的监督学习目标进行训练,获得了一种令人惊讶的倾向,可以进行少量和一次性的学习。在这里,我们证明了一个位于模拟3D世界中的具体化Agent,并被赋予了一种新的双编码外部记忆,当用传统的强化学习算法训练时,可以表现出类似的一次性单词学习。在通过连续的视觉感知和语言提示(这就是DAX)对新对象进行单一介绍之后(这就是DAX),工程师可以重新识别该对象并按照指令操作(将DAX放在床上";)。(";这就是DAX";),工程师可以重新识别该对象并按照指令进行操作(";将DAX放在床上";)。在这样做的过程中,它无缝地将单词DAX&34;的适当指称的短期、剧集内知识与跨剧集获得的长期词汇和动作知识(即#34;床#34;和#34;PUT#34;)无缝地结合在一起。我们发现,在一定的训练条件和特殊的记忆写入机制下,Agent的一次词-对象绑定可以推广到同一ShapeNet类别中的新样本,并且在对象数量不熟悉的情况下是有效的。我们进一步展示了双重编码记忆如何被用作内在动机的信号,刺激代理寻找可能对以后执行指令有用的对象的名称。总而言之,这些结果表明,深层神经网络可以利用元学习、情景记忆和明确的多模态环境来解释快速映射,快速映射是人类认知发展的基本支柱,也是与人类用户互动的代理的潜在变革能力。