耶鲁研究显示AI偏见如何加剧医疗不平等

2024-11-27 00:23:17
来源:Healthcare IT News
语言:英语,所在国:美国
分类:科技与健康,字数:1324

耶鲁大学医学院的一项新研究展示了数据完整性问题在每个阶段——训练、模型开发、出版和实施——如何对患者结果产生不利影响。耶鲁医学院的临床医生表示,这项研究具体关注AI模型开发的不同阶段,展示了数据完整性问题如何影响健康公平和护理质量。

为何重要

该研究本月早些时候发表在《PLOS数字健康》上,通过现实世界和假设的例子说明了AI偏见如何对医疗服务产生不利影响——不仅在护理点,而且在医学AI开发的每一个阶段:训练数据、模型开发、出版和实施。

“偏见进;偏见出,”该研究的高级作者、耶鲁医学院放射学与生物医学影像学及泌尿学助理教授约翰·奥诺弗雷(John Onofrey)在一份新闻声明中说。“多年来一直在机器学习/AI领域工作,算法中存在偏见这一想法并不令人惊讶。然而,列出所有可能进入AI学习过程的偏见方式是令人难以置信的。这使得偏见缓解似乎是一项艰巨的任务。”

正如研究指出的那样,偏见几乎可以在算法开发管道的任何地方出现。研究人员说:“偏见可以出现在数据特征和标签、模型开发和评估、部署和出版中。某些患者群体样本量不足可能导致性能不佳、算法低估和临床上无意义的预测。缺失的患者发现也可能导致模型行为偏见,包括可捕捉但非随机缺失的数据,如诊断代码,以及通常或不易捕捉的数据,如健康的社会决定因素。”

同时,“用于训练监督学习模型的专家注释标签可能反映隐性认知偏见或次标准护理实践。在模型开发过程中过度依赖性能指标可能会掩盖偏见并降低模型的临床效用。当应用于训练队列之外的数据时,模型性能可能会从之前的验证中恶化,并且可能在不同子群体之间差异地恶化。”当然,临床最终用户与AI模型的互动方式也可以引入自己的偏见。

最终,“谁开发和发布了这些AI模型,以及由谁开发,影响着未来医学AI发展的轨迹和优先事项,”耶鲁研究人员说。他们指出,任何缓解偏见的努力——“收集大型和多样化的数据集、统计去偏方法、彻底的模型评估、强调模型可解释性以及标准化的偏见报告和透明度要求”——都必须谨慎实施,密切关注这些防护措施如何防止对患者护理的不利影响。“在临床环境中实际实施之前,通过临床试验进行严格的验证至关重要,以证明其无偏应用,”他们说。“解决模型开发各阶段的偏见对于确保所有患者都能平等地受益于未来的医学AI至关重要。”

但该报告《医学AI中的偏见:对临床决策的影响》提出了一些缓解偏见的建议,旨在改善健康公平。例如,先前的研究发现,使用种族作为估计肾功能的因素有时会导致黑人移植患者等待名单上的时间更长。耶鲁研究人员提出了几项建议,以帮助未来的AI算法使用更精确的措施,如邮政编码和其他社会经济因素。

记录在案

“在医学AI模型中更大程度地捕获和使用健康的社会决定因素进行临床风险预测将是至关重要的,”耶鲁医学院一年级医学生、该研究的第一作者詹姆斯·L·克罗斯(James L. Cross)在一份声明中说。“偏见是一个人类问题,”耶鲁放射学与生物医学影像学副教授、研究合著者迈克尔·乔马(Michael Choma)博士补充道。“当我们谈论‘AI中的偏见’时,我们必须记住,计算机是从我们这里学习的。”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。

7日热榜
各年龄段最佳睡眠时长,你睡对了吗?
想提高睡眠质量?试试这些综合方法!
心源性猝死保命指南:识别征兆、预防及急救要点!
国家卫健委发布减肥指南,各地区专属食谱大揭秘!
甘氨酸镁的最佳服用时间以获得最大益处,据科学所说
35种易消化的食物(以及应限制或避免的难消化食物)
9种世界最抗炎食物,开启健康抗炎饮食之旅!
新报告发现41种婴儿配方奶粉中有34种含有毒素——你需要知道的信息
黄金12秒地震保命指南,学会这些方法关键时刻能救命!
40岁女性生育别怕!做好这些要点实现健康生育
世界新闻
日常体力活动无法减缓更年期骨质流失
OpenAI表示使用ChatGPT可能会让你更孤独。你是否应该限制工作中的AI使用?
基于AI的工具旨在改进蚊子识别以控制疾病
将AI引入医疗保健:潘辉惠博士的创新与影响之旅
扩散模型:从图像生成到医疗诊断
如果你经常使用ChatGPT,这项研究揭示了一些令人担忧的发现
食用酸奶可能有助于降低结肠癌风险
吃酸奶可能降低患肠癌风险,证据显示