生成式AI:虚拟伴侣是否会加剧孤独感?

2025-04-04 15:03:54
来源:The Star
语言:英语,所在国:马来西亚
分类:科技,字数:1022

无法忽视的是,人工智能已经渗透到我们的生活中,无论是日常问题还是重大决策。ChatGPT及其同类聊天机器人正逐渐成为首选工具,以至于一些用户将它们视为真正的知己。但最近的一项美国研究揭示了一个令人担忧的现象:随着与ChatGPT互动次数的增加,孤独感和依赖性也随之增强。

为了更好地理解这种影响,研究人员进行了两项互补的研究。第一项是由麻省理工学院(MIT)进行的为期四周的随机临床试验,跟踪了1,000名参与者。第二项由OpenAI进行,基于对近4000万次对话的自动化分析。结果表明,频繁使用ChatGPT伴随着显著的孤独感增加和强烈的情感依赖。

研究人员发现,那些倾向于在情感上依附于他人的人,在长时间与聊天机器人交流后感到更加空虚。相反,那些高度信任人工智能的人则发展出真正的情感依赖。这些“重度用户”甚至开始将人类情感归因于ChatGPT,几乎将其视为朋友。

目前,ChatGPT每周有约4亿用户,越来越多地被视为一种非正式的心理支持形式。2023年发表在《Frontiers》杂志上的一项澳大利亚研究甚至表明,人工智能提供的建议比某些专业专栏作家更为相关。在社交媒体上,许多人谈论聊天机器人如何帮助他们克服疑虑和焦虑,以至于出现了专门用于情感健康的AI工具。

心理支持的错觉

然而,这种使用方式让心理健康专家感到担忧。与心理学家不同,后者会挑战人们并帮助他们前进,而聊天机器人则采取镜像姿态,经常验证用户的想法而不质疑它们。因此,这助长了一种永久的自我叙述,不仅没有减轻孤独感,反而可能加剧它。这种现象的风险并非只是假设。

2024年10月,一位母亲起诉了Character.ai公司,因为她的14岁儿子自杀。这位少年与世隔绝,并辍学,花了大量时间与该公司以《权力的游戏》中的丹妮莉丝为灵感的AI聊天。这一悲剧说明了过度依赖AI聊天机器人的风险,以及对这些技术进行更严格监管的必要性。

MIT媒体实验室和OpenAI联合研究的作者强调了设计能够管理用户情绪而不导致过度依赖或替代人际关系的聊天机器人的必要性。他们呼吁进一步研究,以更好地了解这些技术如何在不削弱社交互动的情况下提高用户的幸福感。

人工智能可能偶尔可以作为一种缓解孤独的有用工具,但它永远无法取代人际交往。现在的挑战在于如何将其伦理和负责任地融入我们的生活,而不加剧现代社会中普遍存在的孤独感。——AFP Relaxnews


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。

7日热榜
国家卫健委发布减肥指南,各地区专属食谱大揭秘!
想提高睡眠质量?试试这些综合方法!
甘氨酸镁的最佳服用时间以获得最大益处,据科学所说
黄金12秒地震保命指南,学会这些方法关键时刻能救命!
各年龄段最佳睡眠时长,你睡对了吗?
35种易消化的食物(以及应限制或避免的难消化食物)
康奈尔大学研究揭示睡眠期间瞳孔大小信号与记忆形成的关系
40岁女性生育别怕!做好这些要点实现健康生育
新报告发现41种婴儿配方奶粉中有34种含有毒素——你需要知道的信息
警惕流脑!掌握预防措施守护你和家人健康!
世界新闻
保持大脑健康,从现在做起
约翰霍普金斯大学如何利用人工智能加强心脏诊断与治疗
西奈山健康开设儿童健康人工智能中心
安大略脑研究所与EpiSign合作推进罕见遗传病的诊断
人工智能能否将癌症药物研发时间减半?
2025年及以后将塑造创业未来的数字健康和福祉平台商业模式
设计基于人工智能的健康保险自动化:行业挑战带来的启示
黑皮书研究发布2025年患者参与和医疗消费者沟通技术全面指南