人工智能很愚蠢,因果推理解决不了它

2020-08-20 12:08:15

下载PDF摘要:人工神经网络已经在各种游戏中达到了一代宗师甚至超人的表现:从涉及完全信息的游戏(如围棋)到涉及不完全信息的游戏(如星际争霸)。人工智能实验室的一些技术发展带来了整个商业世界的随之而来的应用-在那里,人工智能品牌标签很快就变得无处不在。这种广泛的商业部署的必然结果是,当人工智能出错-自动驾驶汽车相撞;聊天机器人表现出种族主义行为;自动信用评分过程歧视性别等-往往会产生重大的财务、法律和品牌后果,这一事件成为重大新闻。在朱迪亚·珀尔看来,这些错误的根本原因是,深度学习的所有令人印象深刻的成就都只是曲线拟合。朱迪亚·珀尔认为,关键是用因果推理取代推理,因果推理是从暴乱现象中推断原因的能力。加里·马库斯(Gary Marcus)和欧内斯特·戴维斯(Ernest Davis)在最近为“纽约时报”(New York Times)撰写的一篇文章中呼应了这一观点:我们需要停止构建只会越来越善于检测数据集中的统计模式的计算机系统-通常使用一种被称为深度学习的方法-开始构建从组装那一刻起就天生就掌握三个基本概念的计算机系统:时间、空间和因果关系。在这篇文章中,我将突出1949年吉尔伯特·赖尔(Gilbert Ryle)所称的范畴错误,为人工智能错误提供另一种解释:与其说人工智能机器不能掌握因果关系,不如说人工智能机器-作为计算-根本不能理解任何东西。