当您说出一件事但却是指您的主板时

2020-10-15 22:35:46

2014年初,我参加了美国军方高级研发机构DARPA资助的一项实验技术的演示。在洛杉矶写字楼公园的一间会议室里,一名年轻男子坐在舞台上的电脑屏幕前,摄像头对准了他的脸和身体。在屏幕上,一个穿着随意的年轻女子的3D简陋模型笔直地坐在一张长毛绒扶手椅上,就像人们在心理治疗师办公室里看到的那样。这个角色说她的名字是Ellie,她不是治疗师,而是创造了“在一个安全可靠的环境中与人交谈”。另一台监视器,观众可以看到,但男子看不到,它显示了摄像机的实时信息,跟踪他的姿势、眼球运动和嘴巴形状的变化。

“我会问几个问题,让我们开始,”埃利说,以一种令人不安的中立目光看着这名男子。“还有,有什么可以告诉我的,请不要客气。你的答案是完全保密的。“。

随着示威的进行,埃莉问他是否还能回忆起上一次他感到真正快乐的时候。他没有现成的答案,系统的计算机视觉软件检测到他中断眼神交流的时间比之前交谈时更多。“我注意到你在这个问题上犹豫不决,”埃莉说。

设计该系统的南加州大学创意技术研究所(Institute For Creative Technologies At The University Of Southern California)的研究人员在随后的一篇论文中写道,埃莉的目标是进行对话,让软件能够提取“痛苦指标”,从闪烁其辞的一瞥到“消极的词语”,这些指标“与抑郁、焦虑或创伤后应激障碍相关”。该系统就是在南加州大学创意技术研究所(Institute For Creative Technologies At The University Of Southern California)设计的。为此,埃莉看起来很有同情心。“在设计…时需要特别注意的一点是。研究人员写道:“用户是否会在互动中感到足够舒服,以便向虚拟代理人公开谈论他们的心理健康问题。”

虽然埃莉显然是虚拟的,但这也有潜在的好处。DARPA通过一个更大的项目DCAPS为ICT的研究提供资金,该项目名为DCAPS,心理信号的检测和计算分析,该机构说,该项目旨在“开发新的分析工具来评估战士的心理状态,希望提高他们的心理健康意识,使他们能够寻求及时的帮助”。演示结束后,其中一名研究人员向房间解释说,对一个虚拟化身谈论心理健康问题可能是军人的理想选择,因为他们被教导要坚强,这让他们太羞愧,不敢向另一个人敞开心扉。

像埃莉这样的人还可以在其他方面对军方有用。识别和帮助所有患有创伤后应激障碍的现任和前任人员将是一项艰巨的任务。美国退伍军人事务部(US Department Of Veterans Affairs)的估计显示,在部署到伊拉克和阿富汗的270万军人中,每年都有11%到20%的人-大约30万到54万人-患有这种疾病。DARPA表示,在这些人中,只有一小部分人寻求帮助。很难想象最近的政府部署了大量需要寻找和照顾50万或更多创伤后应激障碍患者的人员-治疗师、培训师和外展人员。以埃利为代表的自动化似乎为大规模治疗心理健康问题提供了可能性,甚至可以让士兵更长时间地现役。如果成功,计算机化治疗还可以应用于人与人之间的治疗不可取或不切实际的其他情况-例如在大流行期间。

在这种可能性的背后,也潜藏着一个更大的愿景。虽然Ellie计划在某些方面是粗糙的,但它似乎预示着未来的系统可以持续地跟踪、报告和支持用户的心理健康状况。在演示的时候,像Fitbit和Apple Watch这样的消费设备的营销是基于它们对身体健康的全天候监测和数据收集功能-这些技术背后的公司暗示,这些信息将产生改善生活的洞察力和干预措施。最近,亚马逊下属的研究人员发表了一篇论文,描述了从用户的声音判断他们的情绪状态的努力。如果亚马逊的Alexa猜到你心烦意乱,它可以问你出了什么问题-也许还会在一些放纵的自我护理项目上向你追加销售。支持心理健康可能是从我们的身体和行为中收集和解释大量数据流的另一个理由。

在看了DARPA的演示后,我对一个情感感知的技术生态系统不断向公司或政府报告我们的精神状态,然后试图干预它们的想法感到不安。但我经常想起的是艾莉的化身,她坐在椅子上,双手交叉放在大腿上,平静地接受采访。

当我开始研究计算机化治疗时,虚拟心理健康护理已经是一个蓬勃发展的类别-那是在世界受到冠状病毒袭击之前。随着新冠肺炎事件的爆发,廉价、可扩展的虚拟心理健康工具很可能成为一种必需品。社会孤立、失业、无处不在的不确定性、死亡--这场流行病和社会对它的反应造成了一波情绪痛苦,同时剥夺了数百万人的工作、医疗保健和接受治疗的机会。医学新闻网站STAT最近报道:“随着冠状病毒大流行造成前所未有的压力和悲伤,提供虚拟心理健康护理的公司表示,他们看到人们的兴趣大幅飙升。”

目前有一系列令人眼花缭乱的心理健康应用程序可供下载,它们的名字包括Calm、Happify和MindShift。其中一些程序只是用户指导练习的集合(“写下你今天的感受”)。一些人寻求通过视频或文本聊天将客户与人类治疗师联系起来。其他的则包含像艾莉这样的人物。但他们中的大多数人声称实施了认知行为疗法(CBT)的元素,这是一种出现在20世纪60年代的疗法,成为当今使用和研究最多的治疗抑郁症、焦虑和创伤后应激障碍(PTSD)的方法之一。多年来,CBT一直被认为是治疗此类疾病最有效的方法。最近对精神健康应用程序试验的一项荟萃分析发现,超过80%的人以这样或那样的形式使用CBT。

CBT是一种高度“人性化”的治疗形式,这意味着它希望提供者与客户紧密地坚持高度具体、几乎是照本宣科的互动。医疗服务提供者教客户认清消极想法,并对其进行“争论”,以减少其影响,并用积极的想法取而代之。例如,如果反复出现的“我注定要失败”的想法贯穿患者的脑海,CBT会促使他们系统地用不同的解释来驳斥这种想法:这可能是夸大了吗?真的有证据证明这是真的吗?这类似于在一个想法上运行一个算法,直到它的力量减弱并最终消失。

因此,接受CBT的人的一个共同抱怨是它冷酷、机械,缺乏同理心。评论家罗布·扎克尼(Rob Zacny)在“West”杂志上写道,我最终制作了一款关于虚拟CBT治疗师的游戏。他说,他在游戏中认识到了“一种情绪波动的感觉,这种感觉来自于终于开始吐露一些严肃而可怕的事情,结果却得到了善意的顾问们奇怪的程序化回应。”但CBT的机械性也使得它特别适合由计算机程序来补充或完全变成计算机程序。如果你的人类治疗师的行为和听起来都像一个机器人,那么用一个机器人来取代他会有什么损失呢?

但是,只有在某种程度上我们相信或相信虚拟人物时,虚拟人物才会有效。记者奥利弗·伯克曼(Oliver Burkeman)在2016年为《卫报》(The Guardian)撰写的一篇关于CBT疗效的新问题的文章中,采访了一名经历过产后抑郁症的女性。她告诉他:“我认为,没有什么比电脑程序问我感觉如何(从1分到5分),然后在我点击屏幕上的悲伤表情符号后,用预先录制的声音告诉我‘听到这个消息很抱歉’,让我感到如此孤独和孤立。”伯克曼写道,她意识到自己需要的是“真正的联系:一种基本的、虽然很难表达的感觉,即使每周只有很短的一段时间,也会留在另一个人的脑海里。”

患者并不是唯一认识到这一需求的人。1976年,麻省理工学院一位名叫约瑟夫·魏森鲍姆(Joseph Weizenbaum)的计算机科学家宣称,“计算机可以被编程成为一名有效的心理治疗师”的想法是“荒谬的”。对于那个时代的麻省理工学院来说,这是一个叛逆的立场,当时人们强烈相信人工智能的能力。魏森鲍姆很清楚自己是在背信弃义,但他对电脑化治疗理念的攻击更加有力,因为他自己创造了第一个虚拟治疗师。

魏森鲍姆创建的Eliza程序于1966年发布,通常被称为世界上第一个聊天机器人。Weizenbaum巧妙地围绕着心理治疗师将客户的陈述变成问题的倾向这一刻板印象设计了Eliza。)人们不喜欢我。(你为什么认为人们不喜欢你?)。这是一种优雅的方式,可以在与用户的对话中创造出计算机坚持己见的效果。

当然,以萧伯纳戏剧“皮格马利翁”中的人物伊莱扎·杜利特尔的名字命名的伊莱扎,并没有真正理解它的人类伙伴在说什么。正如信息技术专家Ted Nelson在他1974年出版的关于黑客文化的经典著作“计算机”(Comput)中所描述的那样

事实上,伊莱扎有时似乎表现得无懈可击,就像魏森鲍姆1966年描述他的创作的原始论文中的这个例子:

现代用户通常在几分钟内就会明白,伊莱扎对真实对话的错觉是多么脆弱。然而,在20世纪60年代末,这个节目给人留下了持久的印象。天体物理学家和科学普及家卡尔·萨根(Carl Sagan)在1975年为“自然历史”(Natural History)杂志撰写的一篇文章中预测,这种疗法将在某一天变得司空见惯,通过“计算机心理治疗终端网络,就像一排排大型电话亭”。即使是老牌的精神健康专业人士也开始认真考虑电脑化治疗的想法。也许最值得注意的是精神病学家肯尼斯·科尔比(Kenneth Colby),他后来开发了自己的精神健康聊天机器人,并曾告诉一名记者,“毕竟,电脑不会烧坏,不会瞧不起你,也不会试图与你发生性关系。”

魏森鲍姆本人认为,伊莱扎只是证明了计算机不需要真正理解任何东西就可以模拟日常对话。在伊莱扎获释的第二年,他在麻省理工学院更著名的同事马文·明斯基(Marvin Minsky)宣布,“在一代人的时间里,创造‘人工智能’的问题将得到实质性解决。”但伊莱扎帮助魏森鲍姆对计算机科学以及计算机和人类智能之间的关系形成了一种更持怀疑态度的观点。

Weizenbaum认为,即使未来的计算机足够强大,可以进行自动治疗,它仍然是错误的。他在1976年出版的“计算机能力与人类理性”一书中写道,人类智能和计算机逻辑是根本不同的过程,彼此完全“陌生”。正如扎卡里·勒布(Zachary Loeb)在魏森鲍姆(Weizenbaum)死后发表的采访“赛伯流中的岛屿导论”(Introduction To The Cyberstream In The Cyberstream)中所解释的那样,“计算机擅长进行量化的任务,但对魏森鲍姆来说,人类有很多根本无法量化的东西。”尽管计算机科学家很容易相信计算机可以模拟他们周围的世界或人类的思维,但事实上,它们只能创造自己独立的现实。“如果魏森鲍姆呼吁在某些情况下放弃计算机,”勒布后来继续说,“那是因为在所有情况下对计算机的拥抱导致了对人的放弃。”

在她的论文“数字伴侣时代的真实性”中,同为麻省理工学院教授的雪莉·特克尔(Sherry Turkle)与魏森鲍姆一起授课,她讲述了伊莱扎受到的接待是如何影响他的立场的:

魏森鲍姆发现,这个节目被视为不仅仅是一场室内游戏,这令人不安。如果这个软件赢得了信任,那只能通过欺骗那些使用它的人。从这个角度来看,如果伊莱扎是一个基准,那是因为这款软件标志着真实性的危机:人们并不关心他们的生活叙事是否真的被理解了。告诉他们的行为本身就创造了足够的意义。

当谈到自动治疗时,这也许是最突出的问题:说的行为能和听的行为分开吗?简单地说本身就能创造足够的意义吗?如果被另一个人倾听、认可和理解是治疗力量的源泉,那么捆绑的代码-比如Eliza、Ellie或我最终创建的游戏中的虚构应用-就不可能奏效。自动化的精神卫生保健将建立在一个错误的前提上,即应该进行什么治疗,以及计算机最终可以做什么。

今天几乎所有的心理健康应用都建立在这一潜在有缺陷的前提之上。许多人采用类似即时消息的界面形式,性格友好,这使得人们很难避免将其与伊莱扎相提并论。一个突出的例子是Woebot,它拥有与斯坦福大学有关联的创始人,并在2018年完成了一轮800万美元的融资。就像它的远祖一样,沃博特缺乏真正的人类理解是很容易暴露出来的。告诉节目,我对“我有这么多工作要做”的事实感到焦虑,这导致了这种生硬的审问,读起来就像是直接从CBT手册中走出来的:

你是在用你的想法来预测未来吗,“我还有很多工作要做”?

顺便说一句,你的想法很棒,…。我们快到了。

你是否在“读心术”,“我有很多工作要做”?

你觉得非黑即白的想法如何?“我有很多工作要做”。

你有没有可能把自己的感觉误认为是真相的证据呢?

现在是最重要的比特…。改写“我有太多的工作要做”,而不是那些歪曲。

像Woebot这样的应用程序的矫揉造作的态度和僵化的对话让人同情Weizenbam的观点,即电脑化治疗是不人道的。与此同时,我不禁再次注意到,这与我自己作为游戏开发人员的工作有相似之处。许多游戏使用与Weizenbaum创建Eliza类似的技巧,让玩家相信数字角色是可以以某种方式感知和理解他们的朋友。动画、声音和与环境相适应的行为的组合不仅创造了生活的错觉,也创造了人类和计算机这两个陌生世界之间真正交流的错觉。

数字媒体先驱珍妮特·默里(Janet Murray)在1997年出版的开创性著作“全息甲板上的哈姆雷特”(Hamlet On The Holodeck)中写道,利用“人类在有说服力的戏剧存在时暂停怀疑的倾向”是“伊莱扎力量的真正来源”。在游戏世界里,这些有说服力的戏剧性存在(通常)很清楚他们到底是什么--人物。游戏开发商仍然依赖观众在某种程度上自愿购买它们,这与现场剧场成为现实的方式平行,尽管只是暂时的。在剧中被刺死的演员在谢幕时返回舞台;游戏玩家最终摘下了他们的VR耳机。魔术圈内发生的事情当然不是“真的”,但在某种程度上也是真实的,并对亲历者产生了强大的影响。

难道这就是自动化心理治疗发挥作用所需的全部吗?自从伊莱扎第一次出现以来的近55年里,很少有数字角色试图以任何真实的方式理解他们的用户。原因可能是他们根本没有必要这样做才有说服力。在这种情况下,治疗程序是否理解它的用户真的很重要吗?创造埃莉的项目的主要研究人员之一、计算机科学教授路易斯-菲利普·莫伦西(Louis-Pilippe Morency)将这种经历比作与宠物交谈。“有些人和他们的狗说话,”他在接受“大西洋月刊”记者采访时说。“即使狗不理解它……。我认为有一点这样的效果--仅仅是和某人交谈就会让你感觉更好。“。

据我们所知,除了狗不会将它们的数据上传到任何地方之外,这也是一个重要的考虑因素。如果联系的感觉是成功治疗所需要的全部,那么人与人之间的互动可能是多余的。就像特克尔问的那样,“如果一个人感觉被一个缺乏知觉的物体理解了,无论那个物体是一个模仿的计算机程序,还是一个进行眼神接触并对触摸做出反应的机器人,这种理解的错觉能起到治疗作用吗?”模拟理解的地位是什么--治疗性的、道德性的和关系性的?“。

也许是因为新一届政府的优先事项发生了变化,自2014年以来,DARPA对精神健康的兴趣已经减弱,目前它没有为治疗创伤后应激障碍等目标的研究提供资金。但在接下来的几年里,目睹埃莉在工作中的情景,促使我设计并起草了一款关于电脑心理治疗经验的视频游戏。到2019年初,我慢慢构建的世界终于成形了:一个与现实世界没有太大不同的今天的西雅图,在那里,被称为“代理人”的零工们会阅读“伊莱扎”(Eliza)给他们的提示。“伊莱扎”是一家虚构的科技巨头开发的一个基于云的、基于人工智能的虚拟治疗师程序。该公司以Weizenbaum的程序命名该产品,试图利用其臭名昭著的名声,同时以真正的科技巨头时尚,无视其创造者的疑虑。

游戏的主人公伊夫林·伊希诺-奥布里(Evelyn Ishino-Aubrey)作为这些代理人之一接受了一份工作,为各种各样的人进行治疗,玩家们在她的指导下。作为代理,她所能做的就是阅读Eliza算法告诉她阅读的内容。伊夫林被多次警告不要偏离剧本,这让精明的游戏玩家相信他们很快就能做到这一点。但是伊夫林一次又一次地执行任务,没有偏离。在游戏的大部分时间里,我将角色锁定为一个“好”的代理,即使是以打乱玩家的期望为代价。如果伊芙琳·艾克斯。

.