这项研究扩展了马里兰大学和约翰霍普金斯大学的研究人员在2021年6月《急诊放射学》杂志上发表的一项研究,该研究表明,先进的神经网络可以根据胸部X光片自动分类患者的种族和年龄。
2022年9月,斯坦福大学和哈佛大学的研究人员在《自然-生物医学工程》杂志上发表了一篇文章,介绍了一种新的自监督机器学习算法如何根据X光图像诊断疾病。这种新模型的表现优于过去的完全监督机器学习模型;事实上,它的诊断水平达到了或超过了医学专家的水平。研究人员的模型CheXzero能够更快、更低成本地学习,因为其自监督特性意味着它不需要依赖其他模型所需的专家标注。虽然这可能是医学上的一个巨大进步,但该模型诊断中的潜在偏见仍然是一个令人担忧的问题。
研究人员已经知道,由于训练数据的性质,医疗AI模型可能会继承人们和社会整体的偏见。2021年底,多伦多大学和麻省理工学院的研究人员在《自然-医学》杂志上发表的一篇论文表明,AI系统倾向于低估历史上被服务不足的群体,如女性、少数族裔和低社会经济地位的人。也就是说,这些群体中的人更有可能被这些AI模型错误地标记为健康,即使他们确实患有相关疾病。
研究人员还发现,处于这些被服务不足身份交叉点的人,如拉丁裔女性,被误诊的比率甚至高于其他人群。尽管研究人员无法确定是什么原因导致这些模型以这种方式低估这些人,但他们仍然表示,他们的结果所引发的伦理问题意味着医疗专业人员在工作中应非常谨慎地使用这些技术,如果他们仍然选择使用的话。
在2022年6月《柳叶刀-数字健康》杂志上发表的一篇论文中,另一组由埃默里大学教授领导的研究人员发现,AI模型可以从医疗图像中检测出患者的种族。在他们的研究中,团队发现,在几种类型的医疗图像中,包括X光片、CT扫描和乳腺X光片,大多数标准的深度学习AI模型可以被训练来预测患者的种族。
此外,即使不知道患者的其他细节,如BMI,也可以在整个身体范围内进行这种预测。这项研究扩展了2021年6月《急诊放射学》杂志上马里兰大学和约翰霍普金斯大学研究人员的一项研究,该研究表明,先进的神经网络可以根据胸部X光片自动分类患者的种族和年龄。
3月26日,麻省理工学院、加州大学圣地亚哥分校和华盛顿大学的一个团队在《科学进展》杂志上发表了一篇新论文,显示即使是CheXzero,这个最先进的模型之一,也受到了这些偏见的影响。这篇论文发现,再次出现的情况是,该模型低估了历史上被边缘化的群体,并且在交叉子群体中低估患者的比例更高。因此,尽管CheXzero并没有像预期的那样使用大量的带有标签的数据进行训练,但它似乎还是继承了这些偏见。这再次引发了对在现实世界中使用这些模型进行诊断的伦理担忧——这是医学界仍在努力解决的问题。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。