在缺乏治疗师的情况下,专家讨论AI如何使心理健康治疗更便宜,可达,其隐私问题,产品疗效等

2021-03-29 04:09:12

网站,智能手机应用和社交媒体网站正在分配心理健康建议,通常使用人工智能。与此同时,临床医生和研究人员正在寻求更客观地帮助定义精神疾病,识别高风险的人并确保护理质量。

有些专家认为AI可以使治疗更易且价格合理。长期以来一直严重短缺心理健康专业人士,自Covid大流行以来,对支持的需求比以往任何时候都大。例如,用户可以与AI Powered Chatbots进行对话,然后随时随地随时随地获得帮助,而不是传统治疗。

基于这些努力的算法通过梳理来自社交媒体帖子,智能手机数据,电子健康记录,治疗会话,脑扫描和其他来源的大量数据来梳理,以识别人类难以辨别的模式。

尽管承诺,有一些重要的问题。一些产品的疗效是值得怀疑的,仅在私营公司并不总是共享有关他们的AI工作方式的信息的事实中才会产生更糟的问题。关于准确性的问题提高了对可能易受攻击或无法批判性思维的人的糟糕建议以及担心延迟种族或文化偏见的担忧。担忧还持续存在以意想不到的方式或无意的缔约方分享的私人信息。

华尔街日报通过电子邮件和谷歌文档举办了对话,关于这些问题与John Teorion,Digital-Falytry师Deacer Deame Deaconest Medice Center和Harvard Medical School的助理教授;亚当矿工,斯坦福医学院的讲师; Zac Imel,犹他大学临床培训教授和Lyssn.io联合创始人,该公司使用AI评估心理治疗。这是讨论的编辑成绩单。

WSJ:用于诊断精神障碍和改善治疗的最令人兴奋的方式和机器学习是什么?

博士。矿工:AI可以加快对适当的服务,如危机响应。目前的Covid Pandemic是一个强大的例子,我们看到AI有助于促进获取和分类,同时还提高了隐私和错误信息。这一挑战 - 决定冠军的哪些干预措施和信息 - 是大熊病和心理健康保健的问题,在那里我们对许多不同问题有许多不同的治疗方法。

博士。 IMEL:在近期,我最兴奋的是使用AI增加或指导治疗师,例如在会话之后提供反馈或甚至提供支持自我反射的工具。被动电话感应的应用程序[在用户手机的背景下运行并尝试监控用户的情绪]如果他们预测萧条的变化并提出早期做某事的干预措施,那么可以令人兴奋。此外,在成瘾中遥感的研究,使用工具来检测一个人可能面临复发风险并暗示干预或应对技能,是令人兴奋的。

博士。 TOORION:在研究前面,AI可以帮助我们解锁大脑的一些复杂性,并更好地了解这些疾病,这可以帮助我们提供新的,有效的治疗。我们可以从遗传,神经影像学,认知评估和现在甚至智能手机信号产生关于大脑的大量数据。我们可以利用AI寻找可能有助于我们解锁为什么人们发展精神疾病的模式,他们尽最大响应某些治疗,并且可以立即需要帮助。使用与AI相结合的新数据可能有助于我们解锁创造新个性化甚至预防性治疗的潜力。

博士。 TOOR:在最近的一篇文章中,我共同撰写,我们看了最近的聊天文学,看看有证据表明他们真正做的事情。总的来说,很明显,虽然这个想法很令人兴奋,但我们还没有看到符合营销索赔的证据。许多研究都有问题。他们很小。它们难以向精神疾病的患者推广。他们看可行性结果而不是临床改善终点。许多研究不具有对照组来比较结果。

博士。矿工:我不认为这是一个“美国与他们,人类与艾”的聊天情境。重要的背景是我们作为一个社区,了解我们有真正的访问问题,有些人可能无法准备好或能够从人类获得帮助。如果聊天禁止证明安全有效,我们可以看到一个患者访问治疗的世界,并决定他们是否想要另一个人。临床医生能够在他们最有用和想要的地方度过时间。

WSJ:是否有案件,其中AI比人类心理学家,治疗师或精神科医生更准确或更好?

博士。 Imel:现在,它很难想象取代人类治疗师。对话AI对我们在人类谈话中理所当然的事情并不擅长,就像记住10分钟前或上周和适当的回应一样。

博士。矿工:这肯定是兴奋和挫折的地方。我不记得三天前午餐的午餐,AI系统可以在几秒钟内回忆所有维基百科。对于原始处理能力和记忆,甚至不是人类和AI系统之间的竞争。然而,Imel博士的观点在对话中至关重要:人类在没有努力的情况下,人类的事情目前超出了最强大的AI系统。

始终可用的AI系统,同时可以持有数千个简单的对话可能会产生更好的访问,但对话的质量可能会受到影响。这就是为什么公司和研究人员正在寻找AI-LUBS合作作为合理的下一步。

博士。 Imel:例如,研究显示AI可以帮助“重写”文本语句,以更加分析。 AI没有撰写声明,而是训练,以帮助潜在的听众可能调整它。

WSJ:随着技术的改进,您是否看到聊天或智能手机应用虹吸地关闭任何可能从治疗师寻求帮助的患者?

博士。 TOOR:随着越来越多的人使用应用作为护理的介绍,它可能会提高心理健康的意识和兴趣和对人的需求。我还没有遇到一个治疗师或精神科医生,他们担心失去对应用程序的业务;相反,App公司正在努力雇用更多的治疗师和精神科医生,以满足临床医生支持应用程序的需求。

博士。 Imel:心理健康治疗与教学有很大的共同之处。是的,有技术可以做的是为了规范技能建设和增加访问,但随着父母在去年的了解到,没有取代老师的表现。人类是不完善的,我们累了,是不一致的,但我们非常擅长与其他人联系。心理健康的技术的未来并不是为了取代人类,这是关于支持他们的。

WSJ:当他们可能会雇用人类治疗师时,在某些情况下使用应用程序的学校或公司如何?

博士。矿工:我们面临的一个挑战是,在学校和工作中部署应用程序通常缺乏我们预期的其他类型的医疗干预措施的严格评估。由于可以如此快速地开发和部署应用程序,并且它们的内容可以迅速改变,先前的质量评估方法,例如多年随机试验,如果我们要跟上应用程序开发的卷和速度,这是不可行的。

博士。 Imel:我可能有点拖欠这里 - 建立替代目前心理健康的诊断实践是挑战的。确定是否有人符合主要抑郁症的标准,现在没有像在CT扫描中找到肿瘤的东西,这是昂贵的,劳动密集型和易于关注的错误,以及AI已经证明有用的地方。抑郁症非常符合九个问题调查。

博士。矿工:我同意诊断和治疗是如此差别,因为在接管来自人类的任务之前,AI还有很长的路要走。

您如何牢记使用AI来帮助情绪问题?加入下面的对话。

通过传感器,AI可以测量症状,如睡眠障碍,压力的语音或行为的其他变化。然而,如果这些测量结果完全捕捉了人为决策的细微判断,判断和背景,则目前尚不清楚。 AI系统可以捕获一个人的语音和运动,这可能与主要抑郁症等诊断有关。但没有更多的背景和判断,可以遗漏至关重要的信息。当有文化差异可能考虑诊断相关行为时,这尤其重要。

确保新技术旨在了解规范性语言或行为的文化差异,这对于在基于种族,年龄或其他身份被边缘化的群体中获得信任至关重要。

博士。矿工:我们在多年来制定了法律,以保护人类之间的心理健康谈话。随着应用程序或其他服务开始要求成为这些对话的一部分,用户应该能够期待透明度,了解他们的个人经历如何使用和共享。

博士。 TO TOOR:在现有研究中,我们的团队确定了智能手机应用[用于抑郁和吸烟的抑郁症]与商业实体共享数据。这是行业需要暂停和改变课程的红旗。没有信任,不可能提供有效的心理保健。

博士。 矿工:我们对医疗保健的信任,特别是心理健康的信任,我们的低估。 医学已经设计了创业信任的流程和政策,AI系统可能遵循不同的规则。 第一步是在如何捕获和共享敏感披露方面阐明患者和临床医生对患者和临床医生重要的。