嘉峪检测网 2025-05-09 08:38
导读:2025年1月,FDA分别针对药品和医疗器械发布了里程碑AI指南征求意见,已收到制药行业百余份反馈意见。
2025年1月,FDA分别针对药品和医疗器械发布了里程碑AI指南征求意见,《使用AI支持药品和生物制品监管决策的考量》和《AI驱动的器械软件功能:生命周期管理和上市申报建议》,已收到制药行业百余份反馈意见。
各类AI技术正在深入药品和医疗器械企业的方方面面,AI监管也势在必行,FDA这两份指南的修订与落地颇受关注,全球业界的代表性意见可供我国药业参考。
药品与AI:基于风险,术语统一,模型特异风险,AI供应商责任
对FDA将不影响患者安全、药品质量或研究可靠性的AI模型排除在指南之外的决定(例如用于药物发现或撰写申报资料),美国制药研究与制造商协会(PhRMA)表示认同,但进一步要求FDA明确指出此类AI模型不在其监管权限范围内。
PhRMA指出,不同类型的AI模型具有不同的自主性水平,因此,FDA在应用建议时应更具针对性,而不是对所有AI模型采用统一方法。此外,PhRMA建议FDA在草案指南中纳入其他关键术语的定义,如验证(validation)、联邦学习(federated learning)、锁定数据(locked data)和基于机器的系统(machine-based systems),并确保与FDA其他指南及FDA数字健康与AI术语表中的定义保持一致。
关键路径研究所(CPI)询问FDA将如何使用该指南来评估生成式AI(generative AI,即ChatGPT和DeepSeek采用的技术),并要求对FDA提出的AI模型风险矩阵进行进一步澄清。此外,CPI还要求对处理缺失和超出范围(out of bounds,OOB)数据的方式进行说明。CPI建议指南进一步澄清模型开发过程中模型的稳定性/敏感性,以及使用外部数据进行预训练时与AI建模相关的风险。
Duke Margolis健康政策研究所指出需要澄清的领域是风险类型。目前对风险的定义比较宽泛,示例主要强调了对患者的潜在风险,而不是对支持监管决策的信息的潜在风险。FDA澄清应评估哪些类型的风险,或提供额外的示例,以进一步展示如何应用多维度、基于风险的框架。
生物技术行业组织(BIO)要求FDA明确该指南如何与其他监管框架(如GCP和GMP)相协调。同时建议指南应明确适用于广泛的AI衍生输出(例如生物标志物、终点和诊断工具),但对于被认为几乎没有风险的AI模型不应被要求提交可信度评估计划(credibility assessment plan,CAP)和可信度评估报告(credibility assessment report,CAR)。BIO特别指出,药企面临的问题在于经常使用第三方AI供应商开发、训练和维护申请人研究中使用的AI模型,而企业本身并不拥有或完全访问这些AI模型。FDA应明确申请人可以获取其认为适当的、有助于其监管决策的信息的机制,同时保护任何第三方的专有信息。
医疗器械与AI:模型差异化监管,生命周期,上市后监测机制
美国先进医疗技术协会(AdvaMed)呼吁FDA避免采用“一刀切”的AI监管建议。AdvaMed指出,AI医疗器械在复杂性和风险方面存在显著差异,监管期望应反映这些差异。如果采用僵化的统一方法,可能会对低风险AI应用和简单技术施加过多负担并造成混淆,同时无法在最需要的地方提供有意义的监管。AdvaMed建议修订指南的范围,专注于深度学习或深度神经网络,排除那些较不复杂的AI模型。
美国医疗器械制造商协会(MDMA)也同意AdvaMed的观点,认为指南的范围应缩小到更复杂的AI系统,以符合FDA的“最小负担”原则,并确保基于风险的监管方法。MDMA指出,指南中的许多建议对较不复杂的AI模型并不适用,建议FDA修订草案,以更好地适应不同复杂程度的AI器械。MDMA还建议,针对简单AI模型(如线性回归和决策树)的监管要求,现有的《器械软件功能上市前申报内容》指南更为合适。
组合产品联盟(Combination Products Coalition,CPC)指出,指南遗漏了关于产品生命周期的重要信息。CPC建议最终指南应明确哪些部分适用于医疗器械制造商必须遵守的内部流程,还建议FDA在申报要求中给出更具体要求,分别针对以医疗器械为主导的组合产品和以生物制品为主导的组合产品。
美国放射学会(American College of Radiology,ACR)建议指南应补充上市后监测要求。该学会指出,指南FDA的草案鼓励但不要求上市后监测作为TPLC风险控制措施,具体的上市后监测机制(如定期报告或第三方审计)未明确说明。
来源:识林