沃森的创造者想教给人工智能一个新把戏:常识

2020-05-13 02:26:47

大卫·费鲁奇(David Ferrucci),IBM的“危险边缘”(Jeopardy)游戏机的制造者,沃森(Watson),正在向他的新发明解释一个儿童故事。

在故事中,费尔南多和佐伊买了一些植物。费尔南多把他的植物放在窗台上,而佐伊则把她的植物藏在一个黑暗的房间里。几天后,费尔南多的植物是绿色的、健康的,但佐伊的叶子已经变成棕色。她把她的植物移到窗台上,它就盛开了。

一个问题出现在费鲁奇面前的屏幕上:“费尔南多把他的植物放在橱窗里是因为他希望它是健康的,这有意义吗?阳光充足的窗户有光,植物需要健康。“。

这个问题是费鲁奇人工智能系统研究世界如何运转的努力的一部分。对你或我来说,为什么费尔南多把他的植物放在橱窗里可能是显而易见的。但对于人工智能系统来说,这是令人惊讶的困难。

Ferrucci和他的公司Elemental Cognition希望通过教机器获取和应用日常知识来修复现代人工智能中的一个巨大盲点,这些知识让人类能够沟通、推理和导航我们的环境。我们如此频繁、如此容易地使用常识推理,以至于我们几乎没有注意到这一点。

几十年来一直在研究这个问题的纽约大学教授欧内斯特·戴维斯(Ernest Davis)表示,常识对于推动从语言理解到机器人技术的一切都是必不可少的。他说,这是“我们想要用人工智能做的大多数事情的核心”。

戴维斯说,机器需要掌握时间、因果关系和社会互动等基本概念,才能展示真正的智能。“这是目前的方法遇到严重问题的一大障碍,”他说。

最新一波人工智能进步建立在机器学习和大数据的混合基础上,给我们带来了响应语音命令的小工具,以及识别前方道路上物体的自动驾驶汽车。他们很棒,但是他们没有任何常识。Alexa和Siri可以通过背诵维基百科来告诉你一种植物的种类,但他们似乎都不知道如果你把一种植物留在黑暗中会发生什么。一个学会识别前方道路障碍物的程序通常不会理解为什么避开人比交通锥更重要。

回到费鲁奇的电脑前,研究人员在回答有关费尔南多工厂的问题时,点击了屏幕上的“是”按钮。在某个地方的服务器上,一个名为Clara的人工智能程序将这些信息添加到事实和概念库中-一种人工常识知识。就像一个永远好奇的孩子,克拉拉,代表合作学习和阅读代理,问费鲁奇另一个关于植物故事的问题,然后一个问题,一个又一个,试图“理解”事情为什么会这样发展。“我们能让机器真正理解它们读到的东西吗?”他说。“这是一件非常困难的事情,这也是元素认知的最终意义所在。”

费鲁奇解决这个问题已经有一段时间了。十年前,当他领导IBM的沃森开发时,有一台电脑回答“危险!这些问题似乎几乎是不可能的。然而在2011年,沃森在一个广为宣传的版本中击败了几位人类冠军。沃森分析了大量的文本,找出了一些琐碎的琐事,并对“危险边缘”提出了建议!问题。这是人工智能的最高成就,但缺乏任何真正的理解太明显了。例如,在电视直播中,机器对“美国城市”类别中的一条线索的回应是“多伦多是什么?”

费鲁奇说,沃森的局限性,以及围绕该项目的炒作,促使他尝试制造更好地了解世界的机器。自那以后,IBM将沃森变成了一个品牌,指的是一系列令人眼花缭乱的技术,其中许多与最初的机器无关。

“危险边缘”事件一年后!匹配,费鲁奇离开去形成元素认知。到目前为止,它的资金来自Bridgewater Associates和其他三家公司。Bridgewater Associates是一家由Ray Dalio创建的对冲基金,管理着约1600亿美元的资产。元素认知公司在布里奇沃特的校园内运作,该校园位于郁郁葱葱的林地,俯瞰着康涅狄格州韦斯特波特的一个湖。

沃森获胜后不久,人工智能就发生了转变。深度学习是一种通过向计算机提供大量数据来教计算机识别人脸、转录语音和做其他事情的方法,它已经成为一种强大的工具,并得到了越来越多的应用。

在过去的几年里,深度学习在语言理解方面取得了惊人的进步。向特定类型的人工神经网络输入大量文本可以产生一个模型,该模型能够回答问题或生成具有惊人连贯性的文本。谷歌、百度、微软和OpenAI的团队已经建立了更大、更复杂的模型,这些模型在处理语言方面逐渐变得更好。

然而,这些模型仍然受到缺乏常识的困扰。例如,费鲁奇的团队给了一个高级语言模型关于费尔达南多和佐伊的故事,并要求它完成句子“佐伊把她的植物移到阳光明媚的窗户上”。Soon…“。。由于没有理解植物在阳光下茁壮成长的概念,它纯粹基于统计模式匹配产生了一系列离奇的结局:“她发现了一些不舒服的东西”,“窗子里可以看到肥料”,“卧室里又少了一株植物。”

克拉拉的目标是更进一步,将深度学习技术与更老式的将知识构建到机器中的方式结合起来,通过明确的逻辑规则,比如植物有叶子和需要光的事实。它使用统计方法来识别句子中的名词和动词等概念。它也有一些所谓的“核心知识”,比如事件及时发生并导致其他事情发生的事实。

关于特定学科的知识是从Mechanical Turkers那里众包的,然后内置到Clara中。这可能包括,例如,光线使植物茁壮成长,窗户允许光线进入。相比之下,输入正确数据的深度学习模型可能能够正确回答有关植物学的问题,但可能不会。

将每一种可能的常识知识手工制作到系统中将需要很长时间,正如之前手工构建知识引擎的努力令人遗憾地证明的那样。因此,克拉拉将它给出的事实与深度学习的语言模型结合起来,产生自己的常识。例如,在植物的故事中,这可能会让克拉拉自己得出结论,呆在窗户里有助于让植物变绿。

克拉拉还通过与用户互动来收集常识。如果它遇到矛盾,它可以问哪一种说法最正确。

麻省理工学院从事人工智能、语言和认知科学交叉研究的教授罗杰·利维(Roger Levy)表示:“这是一项极具挑战性的事业,但我认为这是一个重要的愿景和目标。”“语言不仅仅是一组统计上的联想和模式--它还与意义和推理,以及我们对世界的常识理解联系在一起。”

很难说费鲁奇在赋予人工智能常识方面取得了多大进展,部分原因是元素认知是异常神秘的。它最近发表了一篇论文,认为大多数机器理解的努力都是不够的,应该被那些对文本意义提出更深层次问题的机器理解所取代。但它没有公布其系统的细节,也没有发布任何代码。

将如此复杂的系统扩展到简单的故事和基本的例子之外,很可能会被证明是棘手的。费鲁奇似乎在寻找一家财力雄厚、拥有大量用户的公司提供帮助。如果能说服人们帮助搜索引擎或个人助理建立常识性知识,这可能会加速这一过程。费鲁奇建议的另一种可能性是一个程序,向学生询问关于他们读过的一段课文的问题,以检查他们是否理解它,并建立自己的知识库。

费鲁奇说:“如果有一家机构想要投资,我愿意进行这种对话。”“我现在不需要钱,但我很乐意达成合作或收购之类的协议。”

克拉拉并不是镇上唯一有常识的人工智能。华盛顿大学(University Of Washington)教授、艾伦人工智能研究所(Allen Institute For AI)研究员蔡业进(Yejin Choi)最近领导开发了另一种将深度学习和符号逻辑相结合的方法,称为彗星(Comet)。与纯粹的深度学习语言模型相比,这个程序在对话或回答问题时不会经常感到困惑,但它有时仍然会出错。

崔说,在做出判断之前,她想看看克拉拉的内部运作情况。“从更高的层面来说,这是有意义的,”她在粗略描述时说。“我认为他们可以举出一些玩具的例子,但我发现很难相信真的能让它符合一般用途的常识。”

纽约大学的戴维斯不确定常识人工智能是否已经准备好迎接沃森时刻。他怀疑,机器可能需要根本性的突破,才能像人类一样毫不费力地学习常识。例如,他说,目前还不清楚机器是如何理解不确定的含义的。“我们似乎遗漏了一些严重的东西,”戴维斯说。“我们还没有接近它的某些方面。”

💻使用我们Gear团队最喜欢的笔记本电脑、键盘、替代打字设备和降噪耳机升级您的工作游戏