嘉峪检测网 2025-01-21 11:42
导读:1月20日,CergenX宣布,FDA 授予其用于新生儿脑部监测的 Wave 设备突破性设备称号。
前言
1月20日,CergenX宣布,FDA 授予其用于新生儿脑部监测的 Wave 设备突破性设备称号。此外,FDA 还接纳这家位于爱尔兰科克的公司加入其全产品生命周期咨询计划 (TAP)。TAP 为 FDA、患者、供应商和付款人提供早期和频繁的战略参与。它促进了医疗设备的快速发展和广泛使用。
CergenX 是科克大学母婴健康研究中心的衍生公司,它设计 Wave 是为了“重新定义新生儿大脑健康”。它旨在帮助医院进行专家级脑电图评估,而无需专家资源。
该设备利用人工智能识别出最有可能出现脑损伤的新生儿。它为新生儿护理的早期发现和干预提供了重要工具。该设备具有实时、非侵入式监测功能,可增强临床决策能力并改善治疗效果。
Wave新生儿脑监测仪
CergenX Wave
Wave连接方式
CergenX Wave 软件在医疗级平板电脑上运行。便携式 EEG 放大器可记录 2 通道 EEG数据。
CergenX Wave具有以下特点:
1)15 分钟测试
2)简单易用
3)供所有临床医生使用
4)客观决策支持
5)自动化人工智能脑电图评估
a) 设备设置完毕并连接电极后,开始评估
b) 系统对电极连接进行初步质量检查
c) 该系统记录10分钟的2通道脑电图
d)给出评估结果
CergenX Wave 工作流
CergenX Wave AI平台
CergenX Wave 设备中的 AI 算法建立在爱尔兰科克大学 INFANT 研究中心数十年的基础研究基础之上,并通过 CergenX 主导的研究计划得到进一步推进。
INFANT 中心已成为新生儿脑电图分析领域的全球领导者,为癫痫发作检测算法等具有里程碑意义的进展做出了贡献,这些算法已通过国际多中心临床试验验证。该中心还一直处于新生儿脑电图神经生理学的前沿,开发了与长期神经发育结果相关的分级标准,以及用于脑电图背景分类的尖端 AI 算法。
这些项目的见解对于指导 Wave 人工智能算法的设计、开发和应用至关重要。CergenX 自己的内部研究确保这些算法不断发展以满足当前的临床需求,包括在新生儿脑电图不连续活动的量化和自动检测方面的进步,从而提高临床环境中脑电图分析的准确性和有效性。
此外,CergenX还在GitHub上开源了部分软件算法,如:基于EEG检测器的癫痫发作预估评估(SPEED)框架[3]。
新生儿脑电图癫痫检测算法研究
1月8日,CergenX公司和爱尔兰科克大学婴儿研究中心的合作团队在杂志npj Digit. Med.上发表的最新的研究文章——缩放卷积神经网络实现新生儿脑电图专家级癫痫发作检测[1],展示了其在新生儿脑电图监测方面的最新成果。简介如下:
文章使用来自 332 名新生儿的回顾性脑电图数据开发并验证了一种癫痫检测模型。对卷积神经网络进行了训练和测试,这些数据是超过 50,000 小时(n=202)的带注释的单通道脑电图,其中包含 12,402 次癫痫发作事件。然后在两个独立的多审阅者数据集(n=51 和n=79)上验证该模型。
结果显示:增加数据和模型大小可以提高性能——随着数据(模型)的扩展,马修斯相关系数 (MCC) 和皮尔逊相关性 ( r ) 最多可增加 50%(15%)。最大的模型(21m 个参数)在开放获取数据集上达到了最佳水平(MCC=0.764、r=0.824和AUC=0.982)。该模型在两个验证集上也都达到了专家级的性能,这是该领域的首创,当模型取代专家时,评分者间一致性没有显著差异(∣Δk∣<0.094,p>0.05)。
图片节选:癫痫发作时的脑电图片段及不同模型输出的比较[1]
a)来自开发数据集的 60 秒 EEG 样本,每个通道的癫痫发作注释都以阴影显示。在此示例中,只有 3/8 个通道包含癫痫发作。
b)相同EEG 记录中 C4-O2 的 10 小时注释和模型输出。
(a)中的 EEG 样本对应于(b)中第一次癫痫发作事件的前 60 秒。不同规模的模型(即微型、小型、中型、大型和超大型 (XL) 模型)变得更加可信,可以抑制非癫痫发作期的输出,同时在癫痫发作期保持高度一致性。这种易于解释的特性将有利于使用实时模型输出跟踪的临床实施。
大部分文献都侧重于方法论上的改进,即在非常小的数据集上训练专门的架构,从而获得增量收益。文章的工作对这种方法提出了挑战,并提出了一条更有希望实现专家级模型的途径,即通过数据和模型规模。模型扩展策略的一个关键部分是设计一个具有计算效率扩展的架构。不这样做可能会导致训练迭代成本过高。例如,将全卷积神经网络模型扩展到与XL模型相当的大小将需要6倍以上的计算负载。
文章的扩展结果也挑战了传统观点,即增加模型尺寸最终会导致过度拟合和泛化性能下降。事实上,到目前为止,大多数新生儿脑电图研究都集中在相对较小的模型上,参数少于 50k个。尽管如此,模型扩展远远超过过度参数化的程度一直是近期人工智能进步的一个关键特征。这种性能最初会下降然后随着扩展而提高的观察结果被称为深度双下降,并且被发现发生在一系列任务、模型架构和优化方法中。图1b在所有指标中说明了这一发现,与较小的 Nano 模型相比,小型模型的性能有所下降。研究者还在数据扩展(图1a )中看到了这种迹象,增加训练数据集的大小实际上会降低性能,然后通过更多数据再次提高。这一令人惊讶的发现是模型尺度上的深度双下降效应的必然结果,在其他地方也观察到了这种现象。如果在狭窄的尺度范围内操作,在双下降曲线的左侧,较小的模型和数据集似乎是最佳的,这是可以理解的。然而,正如文章在这里所展示的那样,探索更大规模的范围,通过越过双下降陷阱,可以获得实质性的好处。
▼参考文献
[1] Hogan, R., Mathieson, S.R., Luca, A. et al. Scaling convolutional neural networks achieves expert level seizure detection in neonatal EEG. npj Digit. Med. 8, 17 (2025). https://doi.org/10.1038/s41746-024-01416-x
[2] https://www.cergenx.com/resources/research
[3] https://github.com/cergenx/SPEED
来源:Internet
关键词: 脑部监测