威斯康星州正面临心理健康危机,该州存在严重的心理医生短缺问题,人们需要等待六到九个月才能获得如心理咨询等心理健康服务。人工智能能否填补这一医疗差距?
威斯康星公共广播电台(WPR)的“今日威斯康星”节目最近采访了两位当地的心理健康护理专业人士,他们正在将人工智能融入威斯康星州的心理健康护理系统中,同时强调伦理和患者安全的重要性。
希瑟·赫塞尔(Heather Hessel)曾从事信息技术工作超过25年,如今她是威斯康星大学斯特分校(University of Wisconsin-Stout)的婚姻和家庭治疗师,也是咨询、康复和人类服务的助理教授。她最近因其关于人工智能和治疗的研究获得了奖项。
赫塞尔表示,作为教育工作者,她认为人工智能在心理健康领域最有趣的用途之一是它如何帮助提高治疗师的工作质量。例如,一些人工智能程序可以记录治疗过程并提供反馈。
“一旦治疗师获得执照,他们就不再接受监督,”赫塞尔说,“治疗过程是私密的,治疗师不会像其他专业人士那样定期接受绩效评估。”
“尽管我们有继续教育,但仍有一个问题:‘我们真的在提升自己作为治疗师的能力吗?’”她说,“我希望在未来十年内,能看到通过使用人工智能来真正推动治疗师成为更好的治疗师。”
赫塞尔强调,治疗过程始终是保密的,治疗师使用的任何系统都必须安全并遵守《健康保险可携性和责任法案》(HIPAA)。
赫塞尔还提到,人工智能也被用作培训治疗师的教学工具。LiNARiTE.AI是一个人工智能程序,允许学生与虚拟客户进行角色扮演。学生甚至可以指定客户的问题和情绪状态。
赫塞尔表示,虽然这些人工智能程序是模拟,但它们为学生提供了练习技能和增强信心的机会。
另一个在心理健康护理中使用人工智能的方式是部署机器学习算法来分析大型数据集。人工智能可以搜索患者的病史、影像扫描和实验室结果等医疗信息,以识别模式。
罗杰斯行为健康中心(Rogers Behavioral Health)在威斯康星州设有多个地点,专门帮助那些经历心理健康紧急情况的人,如成瘾或自杀意念。该机构的布莱恩·凯伊(Brian Kay)在一份新闻稿中表示,他们是少数几家利用人工智能的行为健康护理设施之一。
凯伊告诉“今日威斯康星”,他们已经使用人工智能来识别人们对不同治疗方法的反应模式,并确定考虑自杀的人的风险因素。
凯伊说,通过使用大数据集分析自杀行为的因素,他们发现睡眠障碍与自杀风险高度相关。因此,他们改变了住院治疗计划,以解决睡眠不足的问题。
“地球上没有人能够处理和识别数万个变量中的模式,”凯伊说,“这就是人工智能可以发挥作用的地方,它可以很好地理解这些模式。但这需要临床医生解释这些模式的意义,更重要的是,解释哪些因素是可以改变的。”
尽管赫塞尔和凯伊对人工智能在心理健康护理中提供的机会感到兴奋,但他们也意识到其中的伦理问题。
他们都同意,面向患者的应用程序和治疗聊天机器人存在局限性。凯伊强调,人工智能不应取代临床医生。赫塞尔表示,治疗聊天机器人目前还不够好,但可能会有所改进。
“我认为治疗聊天机器人可能存在一定的风险,我们需要非常谨慎,”赫塞尔说。
例如,在2023年6月,NPR报道了一款名为Tessa的聊天机器人,最初由研究人员设计用于预防饮食失调,但最终却给一些用户提供减肥建议。倡导者表示,这可能加剧饮食失调问题。
他们还指出,人工智能在心理健康护理中最大的问题是数据集中可能存在偏见。耶鲁大学医学院的一项最新研究表明,随着人工智能收集数据和训练模型,偏见可能会出现。研究指出,人工智能算法中的偏见不仅是可能的,而且如果不及早应对,将是重大风险。
赫塞尔说:“作为治疗师,我们在与与我们截然不同的客户合作时,努力识别自己的隐性偏见,我们不希望这些偏见被人工智能系统强化。”
此外,正如赫塞尔的学生所强调的,使用人工智能对环境也有巨大影响。根据联合国环境规划署的数据,人工智能数据中心会产生电子废物,消耗大量水冷却电气组件,并使用大量能源完成人工智能任务。
通过ChatGPT(一种基于人工智能的虚拟助手)进行一次请求所需的电量是Google搜索的十倍。
因此,随着这些心理健康护理专业人士越来越多地将人工智能融入他们的实践中,他们认识到其潜力,但也希望在心理健康护理中保持人性化的触感。
(全文结束)