当AI在医疗中犯错时,谁应承担责任?

2025-04-04 17:53:23
来源:Study Finds
语言:英语,所在国:美国
分类:科技与健康,字数:1694

AI系统在医疗中犯错时,谁应承担责任?

AI正在诊断患者,但医生仍然被追究责任

德克萨斯州奥斯汀—— 医生越来越多地被要求使用AI系统来帮助诊断患者,但当出现错误时,他们却要承担责任。新的研究表明,医生陷入了一个不可能的困境:使用AI以避免错误,但当同样的AI失败时,他们要承担所有责任。这个“超人困境”是一个没有人谈论的医疗危机。

医生的负担:在AI和责任之间

发表在《JAMA Health Forum》上的新研究解释了人工智能在医疗领域的快速部署如何为医生创造了一个不可能的局面。虽然AI承诺减少医疗错误和医生的职业倦怠,但它可能通过将不切实际的负担放在医生身上而使这两个问题恶化。

德克萨斯大学奥斯汀分校的研究人员发现,医疗机构采用AI技术的速度远远快于法规和法律标准的发展速度。这种监管差距迫使医生承担巨大的负担:他们必须依靠AI来减少错误,同时还要完全负责确定这些系统何时可能会出错。

研究表明,当医生受到AI建议时,普通人会赋予他们更大的道德责任,而不是当他们受到人类同事的指导时。即使有明确证据表明AI系统产生了错误信息,人们仍然会责怪人类医生。

医生常常被视为超人。人们期望他们具备非凡的心理、身体和道德能力。这些期望远远超出了任何人的合理范围。

当两种决策系统发生冲突时

AI系统在医疗领域用于支持医生,但有时只会增加压力。

(照片由国家癌症研究所提供)

医生在与AI系统合作时面临复杂的挑战。他们必须在“假阳性”(过于信任错误的AI指导)和“假阴性”(不信任正确的AI建议)之间找到平衡。这种平衡行为发生在相互竞争的压力下。

医疗机构经常提倡基于证据的决策,鼓励医生将AI系统视为客观的数据解释者。这可能导致对有缺陷工具的过度依赖。与此同时,医生也感到压力,需要相信自己的经验和判断,即使AI系统在某些任务上可能表现更好。

增加复杂性的是“黑箱”问题。许多AI系统在提供推荐时并不解释其推理过程。即使系统变得更加透明,医生和AI处理决策的方式也不同。AI从大量数据集中识别统计模式,而医生则依赖推理、经验和直觉,通常关注患者的特定情况。

超人期望的隐藏成本

这些期望的影响不仅影响患者护理,还影响医生的福祉。其他高压领域的研究表明,承受不切实际期望的员工往往会犹豫不决,担心受到批评。同样,医生可能会变得过于谨慎,只在AI的建议符合既定护理标准时才信任AI

这种防御性的方法会带来自己的问题。随着AI系统的改进,过度谨慎越来越难以证明,特别是当拒绝合理的AI建议导致更糟糕的患者结果时。医生可能会更频繁地质疑自己,从而可能增加医疗错误。

除了患者护理之外,这些期望还会对心理造成影响。研究表明,即使是非常积极的专业人士也难以在持续的不切实际压力下保持参与度。这可能会损害护理质量和医生的目标感。

前进的方向:共同责任和更好的培训

解决方案不仅仅是让AI系统更加值得信赖。医疗机构需要为医生提供技能和策略,以有效地校准他们的信任。

实用的方法包括:

未来的医生不可避免地会与AI合作,但他们不应该独自承担这一负担。通过创建共享责任、优先培训且不要求完美无缺的环境,我们可以确保人工智能增强而不是削弱始终处于良好医疗核心的人类智能。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。

7日热榜
国家卫健委发布减肥指南,各地区专属食谱大揭秘!
想提高睡眠质量?试试这些综合方法!
甘氨酸镁的最佳服用时间以获得最大益处,据科学所说
黄金12秒地震保命指南,学会这些方法关键时刻能救命!
各年龄段最佳睡眠时长,你睡对了吗?
35种易消化的食物(以及应限制或避免的难消化食物)
康奈尔大学研究揭示睡眠期间瞳孔大小信号与记忆形成的关系
40岁女性生育别怕!做好这些要点实现健康生育
新报告发现41种婴儿配方奶粉中有34种含有毒素——你需要知道的信息
警惕流脑!掌握预防措施守护你和家人健康!
世界新闻
新癌症研究强调酸奶的益处,但如果是无乳制品呢?
为什么23andMe的基因数据可能成为AI公司的“金矿”
AI可以预测炎症性肠病患者的早死
Discovery利用人工智能提供“超个性化医疗保健”
AI工具在帮助视力受损者完成任务方面表现出有效性
人工智能在肿瘤学中广泛应用的障碍:准确性、工作流程挑战及其他问题
Evaxion将在AACR年会上展示AI设计的个性化癌症疫苗EVX-01的2期新数据
当AI在医疗中犯错时,谁应承担责任?