使用AI聊天机器人进行心理治疗的想法比现代对AI技术的理解要早得多。澳大利亚国立大学的创意技术专家和神经科学家Jessica Herrington表示,计算机和AI在治疗中的探索可以追溯到1956年。大约十年后,第一个聊天机器人ELIZA诞生了。
“ELIZA被设计成模仿患者与心理治疗师之间的对话,”她说。“它基本上是一个具有设定响应的算法。”
然而,这一想法也源于一个更加对话式的心理治疗模式的发展时期。“我们今天所做的实际上是基于一个非常古老的概念。”她补充道。
RMIT大学专门研究医疗行业人机交互的George Buchanan教授解释了像ChatGPT这样的AI聊天机器人的工作原理。“聊天机器人试图根据它们接受的训练来预测下一个单词是什么。它们并不真正理解你在说什么,只是试图猜测下一句有用的话是什么。”
在治疗背景下,这引发了关于AI在心理健康领域应用的问题。
几年前,加拿大计算机科学学生Dennis Han难以获得负担得起的心理治疗,开始使用ChatGPT来谈论他的问题和感受。他所在国家系统的不足促使他与一位同事共同开发了一个程序,结果就是Calmi,一个提供情感支持的聊天机器人。不到一年的时间里,这个机器人在全球范围内吸引了10万名活跃用户,其中大多数年龄在16至24岁之间。
“我根据自己的需求构建了这个程序,我认为很多同龄人都能感同身受。”他说。这款应用程序结合了AI和心理健康领域的研究论文、用户反馈以及心理健康专业人士的意见。虽然该公司的网站上注明,它不能替代传统的治疗或诊断出的精神健康状况的治疗,但Han认为它解决了一个“实际问题”。
专家们表示,人类的触感是不可替代的,而像Han这样的应用程序带有免责声明,表明它们不是专业护理的替代品。Herrington博士说,AI无法捕捉到的情境信息,而治疗师可以从患者走进门的那一刻起就能捕捉到。“他们可以通过你的走路方式、身体姿态、说话方式以及其他各种未言明的身体语言,了解你可能的感受或反应。”她补充说,AI也不知道“你的生平故事、社会背景或你可能拥有的支持网络。”
同样的信息对于心理学家来说至关重要,以制定适当的治疗策略。RMIT大学心理学高级讲师、研究员兼心理学家James Collett解释说,治疗涉及帮助人们理解他们的处境并挑战他们的思维方式。
虽然客户被视为治疗过程中的平等伙伴,但Collett博士说,心理学家必须“非常敏感地评估人们是否准备好接受这种程度的挑战,并思考何时是说出特定事情或进入干预阶段的最佳时机。”“AI当然可以收集信息,但最终还是需要治疗师根据判断做出诊断。”他认为这是AI永远无法具备的人类技能。
出于同样的原因,Buchanan博士也强调,AI并不是处于困境中的人们的适当工具,特别是那些有身体伤害或自杀念头的人,或者正在处理强烈创伤的人。
专家们认为,AI聊天机器人可以帮助改善获得治疗的机会。Herrington博士说,AI的世界里没有好日子和坏日子,所以缺乏情绪状态是一个很大的优势。“无论何时提问,你都会得到相同质量的回答。”她说。此外,即时性也是一个优势,她认为这有助于填补医疗保健中的空白。“如果你在某个时间无法接触到治疗师,你可以随时提问,这对某些人来说可能是救命的。”她相信这可以在等待时间长或预约之间使用。
此外,由于许多社区仍然对心理健康有污名化,Buchanan博士认为,AI治疗师可以“提供一定程度的隐私”。如果成本不再是问题,他相信这项服务将吸引“较不富裕的人群和来自更保守背景的人”。
Herrington博士认为这项技术将会持续存在,因此有必要拥抱AI,同时认识到它的不足之处。“与AI合作的时间越长,它用于特定对话的信息就越多,最终会使该AI难以正常运作。”她说。“你可以与人类治疗师合作十年,但你不能与ChatGPT合作十年。”
尽管如此,Collett博士认为,当设置为支持治疗时,AI作为一种工具有其价值。无论是作为预先筛选程序还是在帮助某人逐渐停止看心理医生之后的辅助工具。Collett博士举了一个例子,即AI如何帮助执行关于“训练、洞察和反思”的练习,如“挑战负面思维”。
同样,Buchanan博士认为,如果经过良好的训练,AI在治疗方面有很大的潜力。“不仅仅是改进AI,还需要更好地学习如何使用这些工具。”“在正确的上下文中,有正确的整体治疗计划和正确的方法,它可能会有效,但仅仅从货架上拿下来希望它有效则风险较大。”
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。