嘉峪检测网 2024-11-21 08:23
导读:如何监管生成式人工智能(AI)器械是美国 FDA 新数字健康专家委员会于 11 月 20 日开始的为期两天的首次会议的核心议题。
如何监管生成式人工智能(AI)器械是美国 FDA 新数字健康专家委员会于 11 月 20 日开始的为期两天的首次会议的核心议题。
FDA 局长 Robert Califf 在会议上致开幕词,指出 FDA 自 1995 年以来已收到 1000 多份支持 AI 的医疗器械的申请,300 多份包括 AI 成分的药品和生物制品的申请,并且几乎每件药品申请都在开发过程中的某处使用了 AI。但他也警告指出,如果没有适当的保障措施,AI 最终可能不会让美国变得更健康。
Califf 表示,“我听到越来越多的人担心采纳 AI 的标准几乎存粹是出于财务考虑,”并警告表示美国农村地区可能会被排除在外。“临床结局测量很难。除非非常认真地对待这些问题,并组建那些关心改善健康结局的人的联盟,否则这项技术将以我们整体健康恶化为代价来提高利润。”
生成式 AI 模仿输入数据的结构和特征,以生成图像、视频、文本和其它数字内容等合成内容,在医学领域的应用越来越广泛。FDA 指出,这些 AI 支持的器械可以有各种预期用途,因此一般讨论的考虑因素可能并不适用于所有支持生成式 AI 的器械。
哈佛大学助理教授 Pranav Rajpurkar 向专家委员会介绍了衡量生成式 AI 性能的困难。“让我们感到非常兴奋的事情之一是大型语言模型(LLM)能够进行对话。这些系统的评估方式与这些系统在实践中的预期使用方式之间存在很大差距。”
例如,他指出,目前对 LLM 的主要评估是回答医学考试问题,研究表明 LLM 的表现优于人类,其它研究甚至表明 AI 的表现优于在 AI 辅助下的临床医生。
但 Rajpurkar 强调,LLM 并未接受过训练来了解真实世界中的患者。真实世界中的医生接待的患者不会了解医学术语,在为患者做决定时,医生也没有提供多项选择。
Rajpurkar 表示,“我们需要改变我们对评估的看法,以及如何进行对话式评估。”
FDA 呼吁专家会在两天内重点讨论与上市前性能评估、风险管理和上市后监测相关的三大类问题:
1. 应提供给 FDA 的与生成式 AI 相关的具体信息,以便评估生成式 AI 器械的安全性和有效性,尤其是,考虑到基础模型会随着实践的推移而变化。
2. 可能需要哪些新的机会和控制措施来降低风险。“例如,与治理、训练、反馈机制和真实世界绩效评估相关的控制措施。”
3. FDA 还寻求讨论上市后监测和评估的不同方面,这对于维护这些器械的安全性和有效性至关重要。
来源:识林
关键词: AI医疗器械