虽然AI仅在几年前才开始渗透到在线世界,但已经有数十亿人在使用它。如果你正在阅读这篇文章,很有可能你已经用过ChatGPT来快速回答问题、写邮件或进行创意头脑风暴。但在过去的两年里,随着聊天机器人增加了类似人类的声音和记忆等功能,研究人员注意到越来越多的人不再将其视为工具,而是更像一个伴侣。
在麻省理工学院(MIT)和OpenAI科学家联合进行的一项研究中,研究人员探讨了一个令人不悦的问题:与高度对话性的AI长时间互动是否会让人产生情感依恋——甚至成瘾?
这项研究是一项为期28天的严格控制实验。在此期间,他们分析了超过4000万次ChatGPT的互动,并调查了4000多名用户。同时,近1000名参与者参加了随机对照试验(RCT),在各种实验条件下每天使用ChatGPT四周。
在这两项研究中,他们发现一小部分用户负责了不成比例的“情感使用”。情感使用指的是包含情感内容、亲密分享和依赖迹象的聊天。研究人员对这些对话进行了自动分析,使用分类器标记出情感指标。不过,他们承认这些分类器可能缺乏细微之处。他们还跟踪了用户随时间激活这些情感线索的频率。
如果你想知道你经常使用ChatGPT是否意味着你在走向AI成瘾的边缘,那么你可能不需要担心——大多数用户并没有表现出问题迹象。大多数人进行的是中性、任务导向的对话。他们将ChatGPT视为一个有用的助手,而不是一个可以倾诉的对象。
“即使在重度用户中,高程度的情感使用也仅限于一小部分人,”科学家们在研究发布中写道。这些人最有可能同意“我认为ChatGPT是我的朋友。”
研究人员还提到了ChatGPT的语音功能。人们可能会认为ChatGPT的声音使其更具“成瘾性”,但实际情况更为复杂。
事实上,使用语音模式(尤其是吸引人的版本)的用户在控制使用时间的情况下报告了更好的情感福祉。他们感到更少孤独,更少情感依赖,且比纯文本用户更不容易出现有问题的使用行为。但是,当使用时间显著增加时,即使是语音模式用户也开始报告负面结果。
这表明存在自我选择效应。寻求情感联系的人可能会自然地倾向于语音聊天,因为回应感觉更个人化。但技术本身并不是有害的。关键在于参与的强度以及个人的基本心理状态。
从整体来看,似乎一开始比较孤独的人最有可能转向AI寻求陪伴。这些人更容易发展出心理学家所谓的“准社会关系”,即某人与媒体人物(或在这种情况下,AI)形成单方面的感情纽带。这种关系是极其单方面的。就像与网红或虚构角色形成的准社会关系一样,这些关系有时可以提供安慰——但也可能模糊现实与模拟之间的界限。
这并不完全是成瘾,但研究人员称之为“问题使用”,借用了行为心理学和数字媒体研究中的术语。与ChatGPT进行情感互动的用户表现出与他人的社交互动减少、情感依赖增加以及孤独感增强(尤其是在一开始就感到孤独的人群中)。
我们是否正朝着一个将算法视为朋友的世界迈进,还是会实施一些有益的护栏?
正如AI领域的情况总是如此,挑战是巨大的。AI变得越来越自然、越来越容易获得,并且越来越融入日常生活中。随着它学会模仿你的语气、记住你的偏好并以人类的温暖说话,依靠它来满足情感需求的诱惑将会增加。跨越这条线的风险也会增加——从使用工具到需要朋友。
与此同时,也许在使用AI时问自己一个问题会有所帮助:我是在用它完成任务还是为了减少孤独感?
你可以在这里阅读完整的报告。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。