在一项新的综述中,耶鲁大学的研究人员详细分析了AI开发不同阶段的偏见如何导致不良临床结果和加剧健康不平等。作者表示,他们的研究结果反映了计算机领域的老生常谈:“垃圾进,垃圾出。”
“有偏见的数据产生有偏见的结果,”耶鲁医学院(YSM)放射学与生物医学影像学助理教授、泌尿学副教授John Onofrey博士说,“这个观点绝对适用。”该文章于11月7日发表在《PLOS数字健康》上,提供了假设和真实案例,说明偏见如何影响医疗结果,并提供了缓解策略。“在机器学习/AI领域工作多年后,算法中存在偏见这一观点并不令人惊讶,”Onofrey说,“然而,列出所有可能导致偏见进入AI学习过程的方式是令人难以置信的。这使得偏见缓解看起来像是一项艰巨的任务。”
研究作者确定了医疗AI开发每个阶段的偏见来源——训练数据、模型开发、出版和实施——并为每个阶段提供了说明性案例和偏见缓解策略。在一个例子中,先前的研究发现,在估计肾功能时使用种族作为因素会导致黑人移植患者等待移植名单的时间更长。耶鲁团队指出,未来算法应使用更精确的措施,如社会经济因素和邮政编码。“在用于临床风险预测的医疗AI模型中,更好地捕捉和使用健康的社会决定因素将是至关重要的,”耶鲁医学院一年级医学生James L. Cross和该研究的第一作者说。
“偏见是一个人类问题,”放射学与生物医学影像学副教授Michael Choma博士说,“当我们谈论‘AI中的偏见’时,我们必须记住,计算机是从我们这里学习的。”
(全文结束)