健康的AI:2024年度回顾

2024年12月
来源:JD Supra
语言:英语,所在国:美国
分类:科技与健康,字数:5926

2024年标志着AI和医疗保健领域的显著进展。AI成为所有医疗参与者(包括提供者、技术公司、开发者和监管机构)关注的焦点。AI在临床环境中的应用变得更加普遍,例如抄写和临床决策支持产品越来越受欢迎,EMR供应商也将AI工具集成到其产品中。联邦政府发布了指导文件,成立了特别工作组,并实施了2023年关于AI的行政命令。同样,一些州也开始制定有关AI在医疗保健中使用的立法。

2024年10月30日,拜登总统签署了行政命令14110,为各行各业(包括医疗保健)的AI伦理和安全部署奠定了基础。该综合指令旨在促进AI行业的竞争,防止AI对公民自由和国家安全的威胁,并确保美国在全球AI领域的竞争力。它要求联邦机构任命首席AI官员(CAIOs),并制定和实施AI使用的指导方针,以确保AI系统安全、可靠并符合公共价值观,特别是在医疗环境中。因此,美国卫生与公共服务部(HHS)任命了一位CAIO负责起草AI政策并监督其在公共卫生系统中的整合。食品和药物管理局(FDA)和医疗保险和医疗补助服务中心(CMS)也由这些官员领导建立了专门的AI特别工作组。此外,国家标准与技术研究院(NIST)在2024年初更新了其AI风险管理框架,提供了详细的指南,用于识别、评估和减轻与AI技术相关的风险。

响应行政命令,HHS发布了详细的AI战略,优先考虑AI在HHS中的应用和发展。该战略强调领导医疗AI创新、与医疗生态系统合作以及确保负责任的AI使用。随后,在2024年4月,HHS分享了其促进自动化和算法系统中负责任AI使用的计划,特别是针对管理公共福利的州、地方、部落和地区政府。该计划旨在确保AI系统在公共卫生背景下得到道德和有效的使用。值得注意的是,HHS代理首席AI官员和技术政策助理秘书Micky Tripathi在华盛顿特区的NVIDIA AI峰会上宣布,HHS正在制定新的AI战略计划,预计将于2025年1月发布。

行政命令强调需要建立强大的监管机制来监督AI的安全性和安全性。医疗研究与质量局(AHRQ)启动了“AI在医疗安全计划”,作为现有患者安全组织计划的一部分。该倡议旨在利用AI技术提高患者安全,重点是减少药物错误和改善临床决策支持系统的准确性。此外,AHRQ对采用基于AI工具的医疗机构进行了AI安全审计,以确保符合联邦标准。2024年10月,AHRQ举办了虚拟会议,审查AI在减轻医疗相关风险方面的作用,并讨论安全计划的实施情况。

2024年12月4日,FDA发布了关于AI启用设备软件功能的预定变更控制计划(PCCPs)的最终指南。该指南为制造商提供了建议,包括在营销提交中包含PCCPs。PCCP允许对AI-DSF进行预先授权的修改,从而无需每次更改都提交新的营销申请。该指南还概述了适合纳入PCCP的修改类型以及支持这些计划所需的信息。此外,FDA药品评价与研究中心(CDER)宣布计划发布名为《使用人工智能支持药品和生物制品监管决策的考虑因素》的草案指南。该指南旨在提供使用AI生成的数据支持与药品和生物制品的安全性、有效性和质量相关的监管决策的建议。这些指南反映了FDA致力于提供一个支持AI技术在医疗产品中安全有效集成的监管框架,为开发者和制造商提供了明确的期望,同时促进创新并确保患者安全。

HHS最终确定了《健康数据、技术和互操作性:认证计划更新、算法透明度和信息共享》规则(HTI-1最终规则),旨在增强健康信息技术(Health IT)的互操作性,改进透明度,并支持电子健康信息的访问、交换和使用。虽然该规则涉及多项互操作性增强措施,但它认识到算法在医疗保健中的日益广泛应用,并建立了更高的透明度要求。Health IT开发商现在必须披露其认证Health IT产品中集成的算法的相关信息,包括预期用途、限制和潜在偏差。这一措施旨在建立信任,并确保医疗提供者和患者充分了解影响临床决策的工具。

2024年9月,美国联邦贸易委员会(FTC)发起了“AI合规行动”,针对以被认为具有欺骗性或不公平方式使用AI的公司采取执法行动。该行动导致对五家公司采取了执法措施,包括提供AI驱动的法律服务和AI生成评论的公司。虽然这项行动并不专门针对医疗保健,但它突显了FTC对跨多个部门审查AI应用的承诺。

这些执法活动表明,联邦机构越来越警惕,确保医疗保健中的AI技术得到道德、透明和符合现行法律法规的部署。

2024年2月,众议院引入了《通过利用人工智能促进医疗保健增强和学习法案》(Health AI Act)。该法案提出了一项拨款计划,以促进关于生成式AI在医疗保健中的使用的研究。具体而言,它指示国家卫生研究院(NIH)设立一项拨款计划,奖励符合条件的实体进行研究,以改善医疗保健从业人员记录全面笔记或在患者就诊期间提出医学相关问题的能力;减少临床医生的行政或文书负担;加快健康保险索赔流程;提高医疗保健部门客户服务的效率和质量;或以其他方式改善医疗保健,如NIH认为适当。尽管该提案尚未取得进展(部分原因是即将发布的众议院AI特别工作组报告提供了AI指南和建议),我们预计随着众议院AI特别工作组报告的发布,2025年将有更多的立法动向。

2024年2月20日,众议院成立了两党AI特别工作组,探讨国会应如何推进AI创新,同时考虑适当的防护措施以防范当前和新兴威胁。2024年12月17日,众议院AI特别工作组发布了其综合(253页)报告,其中包括国会制定AI法规和优化政策的指导原则和建议。该工作组强调了AI在医疗保健中的有益作用,如改善药物开发和临床决策,同时也指出了其带来的挑战,包括对AI的有限理解、监管不确定性、数据隐私问题以及对AI在保险决定和覆盖范围中的角色的犹豫。报告得出结论认为,AI有潜力增强医疗保健,最终实现更高的效率、更好的患者护理和更好的结果。这些立法努力继续强调了推进医疗保健中AI技术的决心,为可能的立法行动奠定了基础。

2024年,各州立法者提出了涉及AI的法案,涵盖深度伪造、歧视性做法、消费者保护、网络安全措施、披露要求和其他监管和政策事项。许多州(包括佛罗里达州、马里兰州、马萨诸塞州和华盛顿州)引入了AI特别工作组或其他类似的咨询机构或委员会,负责评估AI的实施、分析其他州的AI法规并提供政策建议。加利福尼亚州、科罗拉多州和犹他州等三个州在2024年通过了具有变革性的医疗AI法律。

加利福尼亚州在2024年通过了一系列AI法律,包括AB-2013、SB-1120和AB-3030。《AI培训数据透明法》(AB-2013)要求生成式AI系统的开发者在其网站上发布有关该AI系统或服务的文档,包括用于开发AI系统的数据集的高级摘要。“开发者”的定义广泛,包括任何设计、编码、生产或实质性修改AI系统以供公众使用的人。该法律将于2026年1月1日生效。

《医师做出决定法》(SB-1120)要求使用AI进行利用率审查或利用率管理功能的医疗服务计划或残疾保险公司,或与使用此类工具的实体签订合同,遵守某些要求,包括AI基于公平和平等应用的信息作出决定。该法律进一步要求医生监督,即任何拒绝、延迟或修改医疗服务的决定必须基于医疗必要性,并由持照医生作出。

《医疗服务计划》包括由加州管理医疗保健部(DMHC)许可的健康计划。值得注意的是,SB-1120规定了一些适用于具有利用率审查或利用率管理功能的AI工具的具体要求,包括:

此外,受SB-1120约束的一方必须在其书面政策和程序中包含有关AI使用和监督的披露。它必须建立一个过程,以审查和批准、修改、延迟或拒绝基于医疗必要性的全部或部分请求。最重要的是,SB-1120规定,医疗必要性的决定只能由持照医生或有能力评估请求的特定临床问题的持照医疗专业人员作出。换句话说,责任在于提供者,AI不能取代提供者的角色。该法律于2025年1月1日生效。

最后,《AB-3030》要求使用生成式AI生成患者书面或口头沟通的医疗机构、诊所、医生办公室或团体执业机构提供:(i)免责声明,告知患者通信是由生成式AI生成的;(ii)明确说明患者如何联系人类医疗提供者、员工或其他适当人员的指示。该法律豁免了由持照或认证的医疗提供者审阅的任何通信,并于2025年1月1日生效。

2024年5月17日,科罗拉多州通过了《科罗拉多人工智能法案》(CAIA),成为第一个通过全面法律规范AI系统开发和部署的州。CAIA适用于任何高风险AI系统的开发者,要求开发者和部署者合理注意,保护消费者免受高风险系统内已知或可预见的算法歧视风险。高风险AI系统是指在部署时作出或在很大程度上影响后果性决定的AI系统。简而言之,CAIA旨在防止AI导致非法差异对待或对个人或群体不利的影响,基于受保护类别,如年龄、种族、残疾、遗传信息、国籍和种族。CAIA将于2026年2月1日生效。

2024年3月13日,犹他州通过了《犹他人工智能政策法案》(UAIP),成为第一个通过重大AI消费者保护法律的州。UAIP规范“生成式人工智能”,定义为:(i)基于数据训练的系统;(ii)使用文本、音频或视觉通信与人互动;(iii)在有限或无人类监督的情况下生成类似于人类创建的非脚本输出。此外,UAIP:

UAIP于2024年5月1日生效。2024年的AI法律和政策变化表明,政府利益相关者迅速应对行业转型,同时平衡隐私、安全、透明度、偏见和伦理等问题。联邦AI立法的缺乏为各州立法者考虑2025年未来的AI法律发展提供了机会和挑战。

除了今年影响AI的新修订的州立法外,全球和行业集团在医疗保健空间中对AI产生了影响。这些发展和趋势包括:

2024年带来了对保险公司用于利用管理和事先授权过程中的AI系统的强化审查和监督。利用管理是一种计划审查服务请求(也称为事先授权请求),以限制保险福利的使用,避免不必要的治疗成本。越来越多的健康计划依赖AI来简化内部操作,包括自动审查事先授权请求。尽管AI在降低成本和解决响应事先授权请求的时间滞后方面显示出一些前景,但其使用也引发了挑战,例如对AI产生不准确、有偏见或最终导致错误拒绝索赔的担忧。许多这些担忧基于监督问题。这正是某些州通过新立法所针对的问题。

例如,加州州长纽森签署的《参议院第1120号法案》(Physicians Make Decisions Act)旨在通过要求支付方在评估请求的医疗必要性时提供一定水平的医疗提供者监督来保障患者获得治疗的机会。该法律还扩展到支付此类医疗费用的覆盖范围。转向其他州,佐治亚州的众议院第887号法案(2024年初提出但尚未通过)将禁止支付方仅根据AI工具得出的结果作出覆盖决定。同样,纽约州的众议院第A9149号法案和俄克拉荷马州的众议院第3577号法案(均于2024年初提出但尚未通过)要求支付方向提供者和投保人披露是否在利用审查中使用AI。此外,伊利诺伊州的众议院第2472号法案(2024年中期通过并于2024年1月1日生效)要求利用管理计划在作出不利决定时使用“客观证据基础标准”,这些标准需经某些机构认证。此外,许多州采纳了全国保险专员协会(NAIC)于2023年12月4日发布的指导文件,即《保险公司使用算法、预测模型和人工智能系统的指南》,建议AI工具的设计应降低保险公司使用AI导致消费者不良结果的风险。

上述内容反映了各州希望通过各种途径应对AI在利用管理中的日益重要作用。利用管理中的AI使用也是国会质询和联邦指导文件的重点。2024年1月,CMS发布了《互操作性和事先授权最终规则》,解决了AI在事先授权请求的新时间框架中的使用。在2月份的FAQ中,CMS重申AI可以用于覆盖决定,但不能是医疗必要性决定的唯一来源。6月,某些国会议员发布了两党联合信函,敦促CMS加强对Medicare Advantage计划覆盖决定中AI使用的监督。

展望新的一年和新政府,许多人想知道“接下来会怎样?”我们预计各州将继续处于AI法规和立法的最前沿,尤其是考虑到新特朗普政府预计将放松对AI使用的监管。联邦AI医疗立法在新政府下仍然不太可能,这意味着行业将继续自我监管。当选总统特朗普承诺废除拜登总统的行政命令,但可能会优先考虑私营部门的AI创新和领导力。长期以来一直关注AI使用的机构(如FDA)可能比近年来才开始关注医疗AI的机构(如HHS和CMS)更能抵御政府更迭的影响。在州一级,我们预计透明度、隐私和偏见等问题将继续处于前列,AI立法的数量将继续增加,即使是在过去回避监管的州,如德克萨斯州。我们预计随着AI的进步和创新不断涌现,它们在医疗领域的应用将从医院扩展到患者的家中。新的AI和分析技术将继续塑造医疗交付。利益相关者,从医院系统到技术公司,将继续形成合作企业,以进一步推进医疗AI。尽管监管环境仍有许多不确定性,但可以肯定的是,不仅AI在医疗保健中将持续存在,而且预计将在未来一年带来突破性的进步。


(全文结束)

7日热榜
感染甲流后有哪些典型症状如何正确应对
甲流高发期,48小时内用药为何如此重要
甲流来袭!如何有效预防保护自己和家人
连续咳嗽不知是否就医看这些判断因素
咖啡过量饮用危害多,你还敢贪杯吗
自助餐饱腹剂传闻?饱腹感真相是什么
冬季洗澡有讲究,这些健康原则你get到了吗
甲流全身症状明显,你真的了解吗
白桦树汁被吹上天,购买是智商税吗
《中国科学家CAR-T疗法突破,自身免疫病治疗迎新希望》
世界新闻
含糖饮料与全球数百万糖尿病和心脏病新病例相关,研究发现
独特的AI通过结合医学图像和文本预测癌症预后和治疗反应
大脑如何过滤感官噪音以做出更好的决策
Grove利用AI缩短临床试验入组时间
诺和诺德与Valo Health扩大合作,签署高达46亿美元的人工智能合作协议
2025年临床试验趋势:投资逆风、可穿戴设备和针对性AI应用
人工智能技术助力全球抗微生物耐药性努力
CES 2025:迄今为止最令人惊叹的五大发布