一套国际上达成一致的建议已发布,旨在减少医疗AI技术中潜在的偏见风险。这些建议由STANDING Together倡议于2024年12月18日在《柳叶刀数字健康》和《NEJM-AI》上发布,旨在确保用于训练和测试医疗AI系统的数据集代表技术将服务的人群多样性。
STANDING Together倡议由伯明翰大学医院NHS基金会信托和伯明翰大学的研究人员领导,研究项目涉及来自58个国家的350多名专家。伯明翰大学AI和数字健康技术副教授、该研究的首席研究员肖留博士表示:“数据就像一面镜子,反映了现实,当被扭曲时,数据会放大社会偏见。但试图通过修正数据来解决问题就像擦镜子以去除衬衫上的污渍。要实现健康公平的持久变化,我们必须关注源头,而不仅仅是表面现象。”
尽管医疗AI技术可能改善患者的诊断和治疗,但研究表明,医疗AI可能存在偏见,这意味着某些个体和社区可能会被遗漏或受到伤害。少数群体尤其可能在数据集中代表性不足,因此可能不成比例地受到AI偏见的影响。
这些建议包括:
这项为期两年的研究与来自全球30多个机构的合作者共同进行,包括大学、监管机构、患者团体和慈善机构,以及大小健康技术公司。研究得到了健康基金会和NHS AI实验室的资助,并得到国家卫生和护理研究所的支持。
世界卫生组织首席科学家杰里米·法拉尔爵士表示:“确保我们拥有多样化、可访问且具有代表性的数据集,以支持负责任地开发和测试AI,是全球优先事项。STANDING Together建议是确保健康AI公平性的重要一步。”
研究人员希望这些建议能对监管机构、健康和护理政策组织、资助机构、伦理审查委员会、大学和政府部门有所帮助。
除了这些建议外,一篇发表在2024年12月13日《自然医学》上的评论文章由STANDING Together的患者代表撰写,强调了公众参与塑造医疗AI研究的重要性。
(全文结束)