“伊莱扎效应”(2019年)

2020-08-16 19:32:04

在约瑟夫·魏森鲍姆的一生中,他喜欢讲述他在20世纪60年代作为麻省理工学院教授创建的一个计算机程序的故事。这是一个名为Eliza的简单聊天机器人,可以在键入的对话中与用户交互。当他招募人们来试用时,Weizenbaum一次又一次地看到了类似的反应-人们被这个项目迷住了。他们会透露他们生活中非常私密的细节。这就好像他们只是在等待某人(或某事)的提问。

伊莱扎是一个简单的计算机程序。它将在用户语句中查找关键字,然后以简单短语或问题的形式将其反映出来。当这一切失败时,它会求助于一系列通用的提示,比如“请继续”或“告诉我更多”。魏森鲍姆曾将伊莱扎编程为心理治疗师的风格进行互动,这相当有说服力;它给人一种同理心的错觉,尽管这只是一个简单的代码。人们会与机器人进行长时间的对话,听起来很像是心理治疗。

Eliza是首批能够令人信服地模拟人类对话的计算机程序之一,坦率地说,Weizenbaum觉得有点令人不安。他没想到人们会如此着迷。他担心用户没有完全理解他们正在与一堆电路交谈,并思考了机器可以有效地模仿人类理解力的更广泛的含义。

魏森鲍姆开始提出这些大而难的问题时,人工智能领域还相对较新,大多充满乐观情绪。许多研究人员梦想创造一个人类和技术以新方式融合的世界。他们想要创造能够与我们对话,并响应我们的需求和愿望的计算机。与此同时,魏森鲍姆将走一条不同的道路。他会开始公开反对人类和机器之间不断侵蚀的边界。他最终脱离了人工智能,成为第一个(也是声音最大的)批评者之一,批评他帮助建立的每一项技术。

长期以来,人们一直对模仿人类的机械设备着迷。古埃及人用木头和石头建造神像,并向他们征求意见。早期的佛教学者将会背诵圣典的“贵金属人”描述为“贵金属人”。古希腊人讲述了铁匠之神赫菲斯托斯的故事,以及他对制作机器人的热爱。然而,直到20世纪40年代和50年代,现代计算机才开始让这些幻想更接近现实。随着计算机变得越来越强大和普及,人们开始看到智能机器的潜力。

1950年,英国数学家艾伦·图灵写下了开创性的“计算机器与智能”。“最有人情味的人”一书的作者布莱恩·克里斯蒂安指出,这篇论文发表于“计算机科学…之初”。但是图灵已经是…了。展望21世纪,想象“在这个世界里,人们可能会建造一台可以真正”思考“的机器。”在这篇论文中,图灵提出了他现在著名的“图灵测试”,在这个测试中,一个人与位于不同房间的人类和机器人进行对话,并必须找出哪个是哪个。如果机器人令人信服,它就通过了测试。图灵预测,这种情况最终会持续发生,以至于我们会把机器说成是智能的,“而不会想到会被反驳”。

图灵测试提出了关于拥有头脑和有意识意味着什么的根本问题-这些问题与其说是关于技术,不如说是关于人性的本质。

与此同时,计算机科学家正在推进编写计算机程序以进行推理、计划和感知的实际业务。他们创建了可以下跳棋、解决应用题和证明逻辑定理的程序。当时的媒体形容他们的工作“令人震惊”。赫伯特·西蒙(Herbert Simon),当时最著名的人工智能研究人员之一,预测到20世纪80年代,机器将能够做人能做的任何工作。就像今天仍然存在的那样,这个想法让许多人感到焦虑。突然之间,那些把人类作为有逻辑的生物区分开来的东西被机器取代了。

但是,尽管有了很大的飞跃,有一个领域,特别是对计算机来说,被证明是特别具有挑战性的。他们努力掌握人类语言,这种语言在人工智能领域通常被称为“自然语言”。正如计算机科学家梅勒妮·米切尔(Melanie Mitchell)解释的那样,“自然语言处理可能是人工智能最难解决的问题,原因是语言在某种意义上几乎等同于思考。”使用语言将我们所有关于世界如何运作的知识结合在一起,包括我们对其他人类的理解和我们对基本概念的直观感觉。作为一个例子,米切尔提出了这样一句话:“一个钢球掉在玻璃桌上,然后碎了。”她指出,人类立刻就能理解“它”指的是玻璃桌。相比之下,机器可能有也可能没有足够的关于材料和物理的上下文知识来得出同样的结论。她解释说,对人们来说,这是常识。

人类语言的这种笨拙意味着,20世纪50年代和60年代制造的早期聊天机器人受到了严格的限制。他们可以谈论一些非常具体的话题,比如棒球。通过限制可能的问题和答案的世界,研究人员可以制造出被认为是“智能”的机器。但与他们交谈就像在和维基百科对话,而不是真人。

约瑟夫·魏森鲍姆(Joseph Weizenbaum)在20世纪60年代来到麻省理工学院后不久,就开始寻求解决这个自然语言问题的办法。他意识到他可以创造一个不需要真正了解这个世界的聊天机器人。它不会吐露事实。它会像镜子一样反射回用户身上。

魏森鲍姆长期以来一直对心理学感兴趣,并认识到治疗师的言语模式可能很容易自动化。然而,结果让他感到不安。人们似乎与他从未打算成为实际治疗工具的东西进行了有意义的对话。然而,对于其他人来说,这似乎打开了一个充满可能性的世界。

在来麻省理工学院之前,魏森鲍姆曾在斯坦福大学呆过一段时间,在那里他与一位名叫肯尼思·科尔比(Kenneth Colby)博士的精神病学家成为了朋友。科尔比曾在一家大型州立精神病院工作,那里的患者每月幸运地去看一次治疗师。他看到了伊莱扎的潜力,并开始宣传这个项目实际上可能在治疗上有用的想法。医学界开始关注。他们认为,也许这个项目-以及其他类似的项目-可以帮助扩大获得精神卫生保健的机会。它甚至可能比人类治疗师更有优势。它会更便宜,而且人们实际上可能会更自由地与机器人交谈。像卡尔·萨根(Carl Sagan)这样着眼于未来的科学家写下了这个想法,在他的案例中,他设想了一个城市心理治疗计算机终端的网络。

虽然每个角落都有治疗终端的想法从未实现,但从事心理健康工作的人将继续试验如何在工作中使用计算机。科尔比接着创建了一个名为Parry的聊天机器人,它模拟了偏执型精神分裂症患者的对话风格。他后来开发了一个名为“克服抑郁”的互动程序。

对于魏森鲍姆来说,他对自己项目不断扩大的影响不屑一顾。他反对像治疗这样微妙、亲密和人性化的东西可以简化为代码的想法。他开始争辩说,需要人类同情和理解的领域不应该自动化。他还担心艾伦·图灵所描述的同样的未来-聊天机器人经常愚弄人们,让他们认为自己是人类。魏森鲍姆最终在谈到伊莱扎时写道:“我没有意识到的是,极短的时间接触一个相对简单的计算机程序,会在相当正常的人中引发强大的错觉思维。”

Weizenbaum从一个在麻省理工学院人工智能社区中心工作的人变成了一个反对它的人。在一些人看到治疗潜力的地方,他看到了一种危险的同情心错觉,政府和企业可能会扭曲和扭曲这种错觉。

在接下来的几十年里,所谓的“专家系统”开始出现在医学、法律和金融等领域。最终,研究人员开始尝试创造足够灵活的计算机来自主学习人类语言。

在20世纪80年代和90年代,自然语言处理有了新的突破。科学家们开始依赖统计方法,收集文件并分析语言模式。然后,在2000年代和2010年代,研究人员开始使用所谓的“深度神经网络”,使用互联网兴起后才能访问的海量数据来训练计算机。通过查看网络上的各种语言,计算机学习起来比简单地一步一步编程要快得多。这些技术已经特别应用于聊天机器人。一些研究人员训练他们的聊天机器人进行录音对话。一些人把他们的聊天机器人放在网上,他们在与用户直接互动的同时学习。

尽管取得了这些进步,但当代聊天机器人--以及它们的会说话的表亲,如Siri和Alexa--仍然不能像我们理解的那样真正“理解”概念。但是,即使对话型人工智能仍然缺乏常识,它们已经变得更加可靠、风度翩翩和令人信服。最近有一些例子让人觉得我们好像牢牢地生活在艾伦·图灵预言的世界里--现在机器一直在愚弄人类。例如,2018年,谷歌发布了一款名为Duplex的人工智能,可以在手机上预订-他们甚至插入了卡顿和“嗯”,让它听起来更有说服力。对于一些人来说,这是令人震惊的-特别是,用户无法确定他们是在与人交谈还是与机器交谈。

这个透明度问题已经成为这类系统的伦理设计的核心,特别是在像治疗这样的敏感领域。伊莱扎可能萌生了聊天机器人治疗师的想法,但这个想法今天仍然存在。沃博特实验室的创始人兼首席执行官艾莉森·达西说,“透明是信任的基础”,这为她在沃博特的工作提供了启示,他们在那里创造了一种产品,旨在解决缺乏可获得和负担得起的精神卫生保健的问题。

几年前,达西和她的团队开始思考如何构建一种数字工具,使精神卫生保健从根本上变得容易获得。在产生Woebot的想法之前,他们对视频游戏进行了试验。Woebot是一款聊天机器人向导,可以带领用户进行基于认知行为疗法的练习,这种疗法帮助人们中断和重新构建负面思维模式。沃博特并没有试图通过图灵测试。它显然是非人类的。它以一个机器人化身为代表,其个性的一部分是它对人类感觉的好奇心。

当达西的团队建造了一个原型,并开始了解人们与沃伯特的互动时,她说,他们马上就能看出一些有趣的事情正在发生。就像Eliza一样,人们与该项目形成了情感联系,该项目提供击掌,向用户发送GIF,行为方式不太像正式的治疗师,而更像是个人啦啦队长。达西说,她的团队非常清楚人工智能提出的伦理问题,她承认这种技术就像外科医生的手术刀。如果使用得当,它可以帮助人们生存。如果使用不当,它可能会成为一种武器。

人们对这类技术有合理的担忧,包括隐私和安全,但也有更复杂的问题,比如这样的发展是否会加强现状。如果聊天机器人被视为人类治疗师的可行替代品,它可能会阻碍扩大获得全面精神卫生保健的努力。研究人员阿莱娜·拜克斯(Alena Buyx)与人合著了一篇关于人工智能在各种精神健康背景下使用的论文。她说,这些技术可能很有前途,但存在监管差距,最佳实践缺乏清晰度。

达西很清楚,她不认为沃博特是人类治疗师的替代品,她认为做好事的潜力大于风险。当Woebot第一次推出时,她对此考虑了很多。他们一直在相对默默无闻的情况下工作,然后突然他们的人数开始攀升。很快,在最初的五天内,他们就拥有了5万名用户。沃博特每周与人们交换数百万条信息。达西回忆道:“我记得我们第一天结束后回到家,坐在厨房的桌子旁,意识到沃伯特在上任的第一天就与人交谈的次数比一个治疗师一生都要多。”

约瑟夫·魏森鲍姆(Joseph Weizenbaum)最终从麻省理工学院退休,但他继续公开反对人工智能的危险,直到2008年去世,享年85岁。虽然他是一位重要的人文主义思想家,但有些人觉得他走得太远了。

帕梅拉·麦考达克是“思考机器”一书的作者,她与魏森鲍姆相识已有几十年之久。她说,他在人工智能社区烧毁了很多桥梁,在接近尾声时几乎成了自己的漫画,没完没了地抨击机器的崛起。

他可能还遗漏了达西在沃伯特身上思考了很多的一些东西:当我们与聊天机器人互动时,人类参与了一种游戏的想法。我们并不一定是被愚弄了,我们只是着迷于看到自己在这些智能机器上的倒影。

提交此表格,即表示您确认您已阅读使用条款和隐私政策,理解它们,并同意受它们的约束。如果您不同意受使用条款和隐私政策的约束,您可能不会使用99%隐形网站和服务。

制片人德莱尼·霍尔采访了《机器是谁在思考》一书的作者帕梅拉·麦考达克;《最人性的人:与计算机交谈教会我们活着意味着什么》一书的作者布莱恩·克里斯蒂安;计算机科学家、人工智能研究员梅勒妮·米切尔;约瑟夫·魏森鲍姆的女儿娜奥米·魏森鲍姆和米里亚姆·魏森鲍姆;以及伍博特实验室首席执行官兼创始人艾莉森·达西。特别感谢慕尼黑TUM医学院医学伦理学教授Alena Buyx和卡内基梅隆大学使用帕梅拉·麦考达克收藏馆的档案材料。