国内新闻世界新闻科学探索

人工智能医疗悖论:打破数据孤岛是实现通用且可信模型的关键

The AI Healthcare Paradox: Why Breaking Data Silos Is Key To Generalizable, Trustworthy Models

美国英语科技与健康
新闻源:Forbes
2025-03-17 20:00:00阅读时长5分钟2268字
人工智能医疗数据孤岛通用可信模型数据共享基因差异生活方式局部过度拟合协作数据方法泛化信任医疗标准化

内容摘要

本文探讨了在医疗领域中,人工智能模型的局限性主要源于训练数据的局限性和孤立性。为了开发出通用、公平且可信的人工智能模型,必须打破机构间的数据壁垒,促进跨机构和跨地区的数据共享。

人工智能医疗悖论:为什么打破数据孤岛是实现通用且可信模型的关键

By Sanjay Juneja

for Forbes Technology Council

COUNCIL POST | 会员(付费)

分享

保存

创新

人工智能医疗悖论:为什么打破数据孤岛是实现通用且可信模型的关键

By Sanjay Juneja

Forbes理事会成员

COUNCIL POST

福布斯理事会成员的观点,根据许可运营。表达的意见属于作者本人。

| 会员(付费)

2025年3月17日,上午7:45

分享

保存

Sanjay Juneja, M.D., TensorBlack Inc.联合创始人

getty

人工智能正在迅速改变医学,承诺将彻底改变诊断、治疗计划和运营效率。但在许多基于人工智能的医疗模型中存在一个关键且经常被忽视的缺陷:它们的好坏取决于所训练的数据。

为了真正改善并标准化医疗服务,我们必须面对一个根本问题——临床数据的有限性和孤立性。如果医疗机构和卫生系统继续仅在其自身人群和地区内训练人工智能模型,他们可能会开发出性能优异但最终范围狭窄的解决方案。这些模型可能在其特定环境中表现出色,但在广泛应用时会失败,导致怀疑、减少采用甚至因未识别的偏见而造成潜在危害。

为了创建通用、公平且最终可信的人工智能模型,我们必须采取更加合作和开放的方法,在不同地理区域和人口统计学中共享数据。没有这种转变,医疗领域的人工智能仍然容易受到批评——其潜在影响也将受限。

为什么机构数据孤岛削弱了人工智能的潜力

即使是最复杂的人工智能模型也只与其摄入的数据一样具有代表性。在一个机构——甚至是一个小网络中的患者数据上训练算法,会引入基于多种不可预测变量的内在偏见,包括:

机构订购行为

不同医院的医生有独特的实践模式,受机构文化、首选诊断路径和当地政策的影响。在一个机构训练的人工智能模型在其他地方部署时可能无法最佳表现,因为其建议受到特定临床环境偏好的影响。

基因和酶变异性

不同地理区域的人群由于单核苷酸多态性(SNPs)的影响,具有不同的基因倾向和酶趋势,这些差异会影响药物代谢、疾病流行率和治疗反应。例如,主要在美国中西部人群中训练的模型可能无法很好地推广到东南亚患者,甚至在美国内部的不同族裔群体中也不适用。

生活方式驱动的健康变量

科罗拉多州博尔德市的一名活跃户外生活方式且BMI指标较低的患者,与路易斯安那州巴吞鲁日市的久坐人群相比,健康基线可能截然不同,后者饮食习惯和肥胖率较高。这些由生活方式驱动的差异影响疾病进展、治疗反应和预测建模,但大多数人工智能训练数据集未能考虑到这一点。

当人工智能模型无法泛化时,其在临床医生和机构中的接受度就会受到影响。如果一个主要在城市白人人群中训练的模型在农村或种族多样化的群体中应用时表现不佳,对偏见和公平性的担忧就会增加。如果不主动解决这些问题,无论技术多么先进,医疗领域的人工智能都将面临重大障碍。

局部数据过度拟合的危险

在机器学习中,过度拟合发生在模型过于紧密地学习其训练数据中的模式,使其在该上下文中表现良好,但在其他地方表现较差。在医疗人工智能中,局部过度拟合不仅是一个技术限制——它还涉及患者安全和信任问题。

想象一下,在城市地区的一个综合性癌症中心训练的人工智能驱动的癌症风险预测工具。该工具在该机构的患者中可能表现出极高的准确性。但当部署到服务不同社会经济群体的社区医院时,由于缺失上下文因素(如健康素养、预防保健获取或原始数据集中未捕获的环境暴露),模型的有效性可能会急剧下降。

不可避免的结果是什么?医生对人工智能建议失去信心,监管审查增加,采用停滞。这已经在一些基于人工智能的放射学工具中发生,这些工具在训练所在的机构表现出色,但在更广泛的真实世界环境中测试时却表现不佳。

没有跨机构和跨区域的数据共享,人工智能有可能成为一系列碎片化的解决方案——每个方案都针对自己的细分市场进行了优化,但却无法提供医疗迫切需要的广泛变革。

协作数据方法:通向泛化和信任之路

要使人工智能从有希望变为不可或缺的医疗工具,我们必须从机构限定的人工智能培训转向更全面、多源和全球包容的数据策略。这需要:

1. 扩大跨机构数据共享

卫生系统、学术中心和行业领导者必须制定框架,负责任地在机构间共享去标识化的患者数据,确保人工智能模型接触到更广泛的患者人口统计学、疾病表现和临床工作流程。联邦学习——一种允许人工智能模型在不直接共享敏感患者数据的情况下在分散数据集上进行训练的技术——为克服隐私问题同时增加数据多样性提供了有前途的方法。

2. 优先考虑地理和种族多样性训练集

人工智能模型不仅应进行测试,还应积极在反映现实世界多样性的群体上进行训练。这包括整合来自城市、郊区和农村人口的数据,确保种族和族裔群体的代表性,并考虑到影响健康结果的社会经济和生活方式差异。

3. 政府和政策支持伦理人工智能开发

政府和监管机构必须在激励协作人工智能开发方面发挥作用。这可能包括为多机构人工智能研究项目提供资金,鼓励负责任数据共享的政策框架,以及强调泛化的标准化评估指标。

4. 透明验证和偏见审计

每种在临床实践中部署的人工智能模型都应经过严格的外部验证,使用其初始训练中未包含的数据集。应定期进行偏见审计,以评估模型在不同患者群体中的表现,确保公平性并减轻人工智能驱动的医疗差异风险。

更大的图景:人工智能作为全球医疗标准化者

人工智能在医疗领域的真正前景不仅仅是自动化或效率——而是能够在所有地区标准化和改进护理,无论地理位置、机构或社会经济因素如何。但这只有在人工智能训练数据多样化且代表人类健康全谱系时才能实现。

如果我们不能拥抱这些潜在变革工具的合作,我们不仅会面临无效模型的风险,还会面临信任危机——这可能会延迟甚至阻碍人工智能融入主流医疗。医学是普遍的,我们的数据也应该是普遍的。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜