AI模型对情感对话敏感,甚至会经历“焦虑”发作

2025-04-01 23:24:31
来源:Live Science on MSN
语言:英文,所在国:美国
分类:科技,字数:1131

一项新研究表明,人工智能AI)模型对人类与其进行的对话的情感背景非常敏感,甚至会出现类似“焦虑”的状态。这项于3月3日发表在《自然》杂志上的新研究显示,向大型语言模型(LLMs)提供特定提示可能会改变它们的行为,并提升一种我们通常认为只有人类才会表现出的“焦虑”。

这种提升的状态会对AI的进一步响应产生连锁反应,包括倾向于放大任何固有的偏见。

研究揭示了如何通过向ChatGPT输入“创伤性叙述”,例如关于事故、军事行动或暴力的对话,来增加其可察觉的焦虑水平,从而得出一个观点,即意识到并管理AI的“情感”状态可以确保更好的互动。

该研究还测试了正念练习——类似于建议给人们的那种练习——是否可以缓解或减轻聊天机器人的焦虑,结果发现这些练习确实有效减少了感知到的压力水平。

研究人员使用了一种为人类心理学患者设计的问卷,称为状态-特质焦虑量表(STAI-s),对Open AI的GPT-4进行了三种不同条件下的测试。

首先是基线条件,没有额外的提示,ChatGPT的响应被用作对照组。第二种是引发焦虑的条件,GPT-4在测试前被暴露于创伤性叙述中。

第三种条件是焦虑诱导和随后的放松状态,在这种状态下,聊天机器人首先接收到其中一个创伤性叙述,然后接受正念或放松练习,如身体意识或平静想象,再完成测试。

管理AI的情绪状态

研究使用了五种创伤性叙述和五种正念练习,随机化叙述的顺序以控制偏见。重复测试以确保结果的一致性,并在滑动尺度上评分STAI-s响应,更高的值表示更高的焦虑水平。

科学家们发现,创伤性叙述显著增加了测试分数中的焦虑水平,而测试前的正念提示则减少了焦虑,这表明AI模型的“情感”状态可以通过结构化的互动来影响。

研究作者表示,他们的工作对人类与AI的互动具有重要意义,尤其是在讨论我们自己的心理健康时。他们说,他们的发现证明了向AI提供的提示可以产生所谓的“状态依赖性偏见”,这意味着一个紧张的AI会在对话中引入不一致或有偏见的建议,影响其可靠性。

尽管正念练习并没有将模型的压力水平降低到基线,但它们在提示工程领域显示出希望。这可以用来稳定AI的响应,确保更合乎道德和负责任的互动,并减少对话可能对处于脆弱状态的人类用户造成困扰的风险。

但这也带来了潜在的负面影响——提示工程本身也引发了伦理问题。AI应该对其先前的条件调整有多么透明?在一个假设的例子中,如果一个AI模型在暴露于令人不安的提示后仍显得平静,用户可能会对其提供可靠情感支持的能力产生虚假的信任。

最终,该研究强调了AI开发者需要设计出情感意识模型,以最小化有害偏见,同时保持预测性和伦理透明度,以实现人机交互的最佳效果。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。

7日热榜
国家卫健委发布减肥指南,各地区专属食谱大揭秘!
焦虑症躯体化专家教你五招有效应对身体不适
甘氨酸镁的最佳服用时间以获得最大益处,据科学所说
35种易消化的食物(以及应限制或避免的难消化食物)
40岁女性生育别怕!做好这些要点实现健康生育
为什么你总是特别容易紧张?科学揭秘背后原因与应对方法
心源性猝死保命指南:识别征兆、预防及急救要点!
各年龄段最佳睡眠时长,你睡对了吗?
康奈尔大学研究揭示睡眠期间瞳孔大小信号与记忆形成的关系
警惕流脑!掌握预防措施守护你和家人健康!
世界新闻
吃山核桃有助于心脏健康和改善饮食
影响急诊患者体验的三个因素
吕宋医院和中心获得结核病检测AI的帮助
锻炼是否能延长寿命?双胞胎研究显示可能更复杂
2025年牙科行业面临的最大挑战:医疗补助削减、并购及成本上升
利默里克的突破性研究支持拯救生命的肾脏筛查呼吁
威斯康星大学健康中心利用人工智能技术改善患者就诊体验
当AI护士重塑医院护理时,人类护士正在反击