广告

您的下一位治疗师可能是一位聊天机器人应用程序

随着我们面临人员短缺和人类分析的局限性,人工智能正在拓展我们应对心理健康问题的方法。

Google NewsGoogle News Preferred Source
插画:Kellie Jaeger

新闻简报

注册我们的电子邮件新闻简报,获取最新的科学新闻

注册

本文最初发表在我们的 2022 年 7 月/8 月刊上,题为“聊天机器人已到来”。点击此处订阅以阅读更多此类故事。

广告

躺在治疗师的沙发上,听着他们在本子上匆匆记录,这可能很快就会变得越来越少见。首先,日益严重的心理健康专业人员短缺可能使得传统疗法更难获得:目前,美国需要超过 6,300 名额外的提供者来满足当前的需求。截至 2021 年春季,超过三分之一的美国人居住在这类护理相对可及性低的地区,这一现象在农村地区更为突出。

但越来越多的新兴人工智能技术可能能够满足这些需求。如今,任何拥有智能手机的人都可以使用会话代理电话应用程序,即聊天机器人,旨在帮助用户应对日常生活中的焦虑。这些人工智能语言处理系统可以通过文本模仿人类的对话——在这种情况下,是通过模拟与治疗师的对话。(不过,目前它们通常不被标榜为治疗。)其中一个版本 Woebot,由临床研究心理学家 Alison Darcy 和其他斯坦福大学的科学家于2017 年推出。Darcy 表示,她研究 Woebot 是为了解决心理健康护理可及性方面的差距,尽管她承认这只是解决方案的一部分。


阅读更多关于医学人工智能的内容


Darcy 指出,Woebot 主要旨在用户在没有治疗师时提供支持,或者作为通往治疗的门户,并可以加强线下课程的学习效果。它被编程为包含认知行为疗法等成熟实践的方面。Darcy 说,当患者在两次治疗之间感到挣扎时,很难回忆起从专业人士那里学到的技能。“我们认为,如果我们能在需要的那一刻接触到这个人,并且让人们能够立即轻松地使用这些工具,那么它可能具有真正的临床价值。”

此外,Darcy 表示,该会话代理旨在以一种幽默感来处理困难的对话。它甚至会讲笑话。这可能会让一些用户更自在,尽管这也可能凸显该技术的有限情感智能。“嘿,鲸你好!”Woebot 可能会欢快地说道,并配上一个鲸鱼表情符号,这种俏皮有时并不适合当前的主题。(Viktor Frankl 和 Sigmund Freud 等学者曾探讨过幽默在治疗中的作用,但他们可能没想到表情符号。)

聊天机器人并不是科学家们一直在为心理健康开发的唯一人工智能创新。在过去的二十年中,越来越多的研究人员开发了补充治疗师、规划针对性治疗并提供临床医生所没有的见解的工具,并可能彻底改变我们提供心理健康护理的方式。

心理学与技术

改造疗法的尝试并非新事物。加州大学伯克利分校的技术和心理健康历史学家 Hannah Zeavin 表示,患者与治疗师之间的关系长期以来都随着社会变革而波动。一个世纪或更长时间以来,临床医生一直在办公室外进行会诊。随着战争、流行病和其他破坏性悲剧限制了治疗的可能性,合格专业人士的可及性根据患者需求而波动。“从收音机开始,然后迅速发展到诸如自杀热线和人工智能之类的东西……一直有努力来批量处理患者,”Zeavin 说。“我们如何才能用一种趋向普遍性的东西来治疗更多的患者?”

一些科学家认为,数据是解决当前心理健康危机的一把钥匙。例如,医生难以可靠地诊断和有效治疗精神分裂症、抑郁症和注意力缺陷多动障碍等疾病,因为它们的症状难以捉摸。“几种复杂的精神障碍在症状方面看起来很相似。它们非常重叠,”加拿大阿尔伯塔大学的机器学习研究员 Sunil Vasu Kalmady 说。“而且,精神疾病没有任何一种独特的特征可以从患者身上获得,比如血压这样的有形指标。”

研究人员希望,在人工智能的帮助下,心灵能够自我表达。通过将专门设计的算法应用于脑部扫描,实验室可以识别出决定患者最佳治疗方案的独特特征。然而,要做到这一点,Kalmady 和同事 Russell Greiner 必须首先将信号与噪声分离开来。由于我们大约有 1000 亿个神经元,功能性磁共振成像(fMRI)扫描提供了大量的噪声可供分析——这个四维地图描绘了由大脑活动触发的大脑血流变化。因此,算法可以揭示特定区域的重要模式(或突出多个区域之间的相互作用),这些模式可能与特定的疾病有关。

广告

(鸣谢:凯莉·杰格)

凯莉·耶格尔

许多疾病,如强迫症和精神分裂症,已被证明在大脑中有共同的特征;Kalmady 和 Greiner 使用他们的算法发现了类似的模式。这项工作可能有助于改善未来的精神疾病诊断,尽管目前这还处于早期阶段。研究人员表示,最终目标是进行预后——利用这项技术为特定患者选择最佳的治疗方案。诊断只是拼图中的一块。

Greiner 说:“与其说‘某人抑郁了’,不如说‘这是一个人可以从 SSRI 中受益’,那将是很好的。”“那将是机器可以帮助识别治疗的地方。”

广告

机器学习还可以推进自杀预防工作。目前,医生在识别这种风险方面只比随机概率有微弱的优势。但一些团队声称,他们的算法可以显著提高预测自杀企图的准确性。

在范德比尔特大学,执业内科医生兼临床信息学家 Colin G. Walsh 和他的同事创建了自动筛选病历以计算即将入院患者特定风险的算法。Walsh 的模型基于医疗服务提供者易于获取的数据,例如患者的人口统计信息、过去自残的经历和社会经济地位。这可以提醒忙碌的医生和护士,当患者可能处于风险中但可能未被筛查到时。“有很多因素需要临床医生的注意力,”Walsh 补充道。

俄勒冈大学数字心理健康中心主任 Nicholas Allen 表示,我们的手机也可以为心理提供前所未有的洞察。他的实验室创建了一个手机应用程序,可以监控使用时长、体育活动和短信频率等细节。它旨在研究青少年并更好地了解他们的健康状况指标,并不一定面向公众使用。但 Allen 也在开发其他技术,例如与人类健康教练的即时消息服务或鼓励健康行为的通知,这些技术可以在无需长时间等待预约的情况下促成挽救生命的护理。“我们正试图让心理健康系统成为您需要时就能获得的系统,”他说。

数字化的弊端

就像任何适合进行数字化革命的领域一样,将人工智能应用于治疗可能会带来一些重大的警告。一些技术伦理学家担心,计算机可能会影响曾经主要由人类指导的过程的质量。而且,根据她的研究,Zeavin 预测现实生活中的治疗课程可能会比过去变得更加排他,并且主要服务于富裕患者。“随着我们看到这种现金流入,我担心像 Woebot 这样的东西会规模化,”她说。

广告

更重要的是,人工智能可能会将创造者(主要是白人男性)的偏见融入这些系统中。例如,根据《PLoS ONE》2020 年发表的一项研究,用于 Woebot 等文本工具的语言处理模型常常偏向于西方表达的心理困扰。人工智能模型也倾向于复制那些将特定种族背景与特定诊断联系起来的刻板印象。“那些在治疗中被边缘化的人,正在接受并非为他们量身定制的治疗,”Zeavin 说。

但这些工具也可以消除护理障碍,特别是对于服务不足的人群。例如,移动治疗应用程序或聊天机器人可以作为昂贵的一对一治疗的经济实惠的替代方案。而且,由于低社会经济地位与风险增加有关,贫困人口可以从自杀预测算法中受益。

即使机器学习在普及治疗和改进治疗方案方面取得了成功,它也总会有一个特殊的局限性:无论我们多么努力,计算机可能都无法复制两个活生生的人之间老式的办公室谈话。“没有人类联系的替代品,”Darcy 说。“但我们需要加强(这一点),以便当人们确实见到人类时,他们能更好地利用这种护理。”

保持好奇

加入我们的列表

订阅我们的每周科学更新

查看我们的 隐私政策

订阅杂志

订阅可享封面价高达六折优惠 《发现》杂志。

订阅
广告

1篇免费文章