2025年1月6日,美国食品药品监督管理局(FDA)发布了题为《考虑使用人工智能支持药物和生物制品的监管决策》的草案指南(以下简称“指南”),解释了在药物评估期间,该机构可能寻求的信息类型。特别地,指南基于“使用背景”提出了一个风险框架,并详细说明了与AI技术相关、用于训练这些技术的数据以及围绕这些技术的治理有关的信息,以批准其使用。总体而言,指南强调了FDA在使用背景下建立AI模型可信度的目标。
这篇文章概述了指南的主要内容,包括使用背景示例和风险框架的细节,并解释了如何通过建议的数据和模型相关披露来建立AI模型的可信度。它进一步详细介绍了由此产生的法律策略考虑事项及创新机会,这些对于临床研究赞助者(如新药研究豁免申请)、AI模型开发者以及其他从事药物开发的企业非常有价值。
定义感兴趣的问题
指南框架的第一步是定义“感兴趣的问题”:即AI模型要解决的具体问题、决策或关切。例如,感兴趣的问题可能涉及在人体临床试验中使用AI技术,如选择参与者的纳入和排除标准、参与者风险分类或确定与临床结果指标相关的程序。感兴趣的问题还可能涉及在药物制造过程中使用AI技术,如质量控制。
使用背景
接下来,指南建立了使用背景——AI模型解决感兴趣问题的具体范围和角色——作为理解与AI模型相关的任何风险以及如何建立可信度的起点。
指南强调,其仅限于影响患者安全、药物质量或非临床或临床研究结果可靠性的AI模型(包括用于药物发现的模型)。因此,使用AI模型进行药物发现但依赖更传统流程来处理FDA批准药物时考虑的安全性、质量和稳定性因素的企业,应了解指南的基本原则,但可能无需修改其当前的AI治理。定义使用背景的一个重要因素是AI模型与其他自动化或人工监督流程相比所起的作用;例如,提供AI输出供人工验证的过程将不同于完全自动化的流程。
指南中介绍了几种类型的使用背景,包括:
-
临床试验设计和管理
-
评估患者
-
裁定终点
-
分析临床试验数据
-
数字健康技术用于药物开发
-
药物警戒
-
制药生产
-
生成真实世界证据(RWE)
-
生命周期维护
风险框架以确定信息披露程度
指南提出,AI模型的风险水平决定了必须披露的关于AI模型的信息的范围和深度。风险基于两个因素确定:1)AI模型对决策的影响程度(模型影响风险),2)决策的后果,如患者安全风险(决策后果风险)。
对于高风险AI模型——其输出可能影响患者安全或药物质量——可能需要提交关于AI模型架构、数据源、训练方法、验证过程和性能指标的详细信息供FDA评估。相反,低风险AI模型所需披露的信息可以较少。这种分层方法促进了可信度,避免了低风险情况下不必要的披露负担。
然而,由于大多数AI模型将用于临床试验管理和药物制造,因此很可能被认为是高风险,相关方应准备好披露大量关于支持决策的AI模型的信息。使用传统(非AI)方法开发药物产品的赞助者需要提交完整的非临床、临床和化学制造控制信息以支持FDA审查和最终批准新药申请。同样,使用AI模型的赞助者也需要提交相同的信息,但还需提供有关AI模型的额外信息,如下所述。
根据使用背景合规的高级别概览
指南进一步提供了详细步骤,以根据AI模型的使用背景建立其可信度。这些步骤包括描述:1)模型,2)用于开发模型的数据,3)模型训练,4)模型评估,包括测试数据、性能指标以及对偏见、质量保证和代码错误管理等可靠性问题的关注。随着与这些步骤相关的风险增加,特别是对试验参与者和/或患者的影响增加,赞助者可能需要在披露中更加详细。
此外,FDA特别强调了对AI模型输出生命周期维护的可信度的特殊考虑。例如,随着给定AI模型输入或部署的变化,可能需要重新评估模型性能(并提供相应的披露以支持持续可信度)。
知识产权考虑
专利与商业秘密
相关方应仔细考虑为用于决策的AI模型背后的创新申请专利。FDA对透明度和提交有关AI模型架构、训练数据、评估过程和生命周期维护计划信息的广泛要求,将对维持这些创新的商业秘密构成重大挑战。
尽管如此,当AI模型不需要披露时,至少某些方面的商业秘密保护仍是一个选项。如果AI模型用于药物发现或不影响患者安全或药物质量的操作,则可能可以保持AI模型或其训练数据的秘密。但是,用于决策的AI模型将受到FDA对透明度和信息披露的需求,这可能会危及商业秘密保护。通过获得AI模型的专利保护,相关方可以在满足FDA透明度要求的同时保护其知识产权。
创新机会
指南要求严格的风险评估、数据适应性标准和模型验证过程,这将为满足这些需求的工具和系统的创建奠定基础。如上所述,用于决策的AI模型的管理和验证的创新方法不是商业秘密保护的好选择,相关方应确保早期识别并为这些发明申请专利。
我们确定了由FDA在指南中反映的需求驱动的特定AI创新机会:
- 透明度要求
-
设计具有可解释AI功能的AI模型,展示决策或预测是如何做出的
-
数据偏差和适应性
-
检测训练数据中偏差的系统
-
纠正训练数据中偏差的系统
-
监控生命周期维护的系统
-
检测药物生命周期中AI模型输入或部署变化的系统
-
因数据漂移而需要重新训练或重新验证AI模型的系统
-
自动化跟踪模型性能的系统
-
测试方法
-
开发可以针对独立数据集和条件进行测试的模型,以证明其通用性
-
将AI模型集成到实际工作流程中
-
良好生产规范
-
临床决策支持系统
-
文档系统
-
自动生成模型开发、评估、更新和可信度评估报告的系统,以便提交给FDA以满足监管要求
指南为提高AI可信度、透明度和整个药物产品生命周期的法规遵从性提供了许多创新机会。如上所述,FDA为验证AI在药物开发中的使用所寻求解决的挑战显然映射到潜在的创新机会。此类创新可能非常有价值,因为它们不仅有助于遵守FDA指南,还提供了开发竞争性专利组合的重要机会。
结论
通过该指南,FDA提出了用于建立对临床试验参与者和患者有风险和影响的AI模型可信度的指导方针。尽管该指南处于草案形式且不具备约束力,但它遵循了一个从定义感兴趣的问题和建立AI模型的使用背景到评估风险并最终确定可能相关的披露范围的逐步框架。该指南阐述了FDA对AI在药物开发中使用的最新思考。鉴于这一框架及预期的披露水平,赞助者可能需要考虑转向更多使用专利保护其创新。同样,识别和保护与这些模型治理相关的创新的机会也可能增加。
除了使用知识产权保护作为更大披露的保障外,企业还可以考虑引入更多的操作控制措施,以减轻与AI模型使用相关的风险,从而减少其披露负担。例如,企业可以通过其他证据来源支持AI模型的可信度,以及在其流程中整合更多的人工参与和监督。
在此期间,不确定其AI模型使用如何与未来FDA要求互动的赞助者应考虑FDA为其具体使用背景所概述的参与选项。
关于草案指南的评论可以在2025年4月7日之前在线提交或邮寄。
(全文结束)