RadFM:开源多模态医疗基础模型
上海交大 & 上海 AI Lab 发布 Radiology Foundation Model (RadFM),开源 14B 多模态医疗基础模型,首次支持 2D/3D 放射影像输入。
论文链接:https://arxiv.org/abs/2308.02463
代码链接:https://github.com/chaoyi-wu/RadFM
PMC-Inline Dataset: https://huggingface.co/datasets/chaoyi-wu/PMC-Inline
PMC-Casereport Dataset: https://huggingface.co/datasets/chaoyi-wu/PMC-CaseReport
Huggingface Model: https://huggingface.co/chaoyi-wu/RadFM
当前医学领域的基础模型的构建往往面临着三个方面的挑战:
- 缺乏用于训练的多模态数据集:由于医学本身的特殊性,医疗任务通常需要处理多模态数据,包括文本信息(电子健康记录,医学报告)、1D 信号(心电图)、2D 影像(超声、X 射线)、3D 影像(CT 或 MRI 扫描)、基因组学等。为了支持医学通用基础模型的训练,大规模多模态数据集的构建十分迫切。
- 缺乏通用的架构设计:在临床医疗诊断中,常常需要综合考虑多个检查结果来做出全面判断,然而,以往的医疗影像分析工作通常只专注于单一模态和单一任务,需要为每个任务设计不同的架构,难以适应临床综合诊断的需求。医学领域的基础模型需要一个通用的架构,能够有效融合不同模态的信息,从而应对广泛的临床任务。
- 缺乏有效的基准来评估模型:对模型的临床知识进行基准测试主要依赖于多种任务的数据集,而这些数据集的测试案例数量有限。目前医疗领域尚未建立一个大规模、复杂的基准,可以用于全面衡量医学基础模型在中医疗任务上的性能。
考虑到上述挑战,研究团队聚焦于构建放射学领域的医学通用基础模型。放射学领域的图像模态种类丰富,影像与报告配对数据也相对较多,且放射学在临床场景中的应用也十分广泛,例如疾病诊断、治疗规划和患者进展监测等等。具体来说,该论文做出了如下技术贡献:
- 数据上:提供了全新的目前世界上最大规模的医疗多模态数据集 MedMD&RadMD,是首个包含 3D 数据的大规模医疗多模态数据集,含 15.5M 2D 图像和 180k 的 3D 医疗影像。
- 模型上:开源了 14B 多模态基础模型 RadFM,支持 2D/3D、图像 / 文本混合输入。
- 测试上:定义了医疗基础模型五大基本任务 —— 模态识别、疾病诊断、医疗问答、报告生成和归因分析,并提供了一个全面的基准——RadBench。
本文提出的基础模型 RadFM 具有巨大的临床应用意义:
- 支持三维数据:在实际临床环境中,CT 和 MRI 被广泛使用,大多数疾病的诊断在很大程度上依赖于它们。RadFM 的模型设计能够处理真实的临床成像数据。
- 多图像输入:合诊断通常需要输入来自各种模态的多影像作为输入,有时甚至需要历史放射图像,因此支持多图像输入 RadFM 能够很好的满足此类临床需求。
- 交错数据格式:在临床实践中,图像分析通常需要了解患者的病史或背景。交错数据格式允许用户自由输入额外的图像背景信息,确保模型能结合多源信息完成复杂的临床决策任务。
与现有的所有医学基础模型相比,RadFM 是第一个同时满足上述三点要求的模型,对医疗基础模型投入实际临床应用具有巨大推动作用。
多模态数据 MedMD&RadMD
研究团队构建了一个当前最大规模的医疗多模态数据集 MedMD,是目前首个包含 3D 数据的大规模医疗多模态数据集,包含 15.5M 2D 图像和 180k 的 3D 医疗影像,也并附带文本描述,例如放射学报告、视觉语言指令或相对应的疾病诊断标签。
MedMD 涵盖了人体各种放射学模态和解剖区域,横跨 17 个医疗系统,如乳腺、心脏、中枢神经系统、胸部、胃肠道、妇科、血液、头颈部、肝胆、肌肉骨骼、产科、肿瘤、儿科、脊柱、创伤、泌尿和血管,包含超过 5000 种疾病,如下图 1、2、3 所示。此外,研究团队还基于 MedMD, 给出了一个放射学多模态数据集 RadMD。
模型架构 RadFM
RadFM 是一个多模态的放射学基础模型,能够将自然语言无缝地与 2D 或 3D 医学扫描相结合,并通过文本输出来解决广泛的医学任务。模型架构如下图 4 所示,研究团队首先在 MedMD 数据集上对该模型进行了预训练,然后在一个经过筛选的数据集 RadMD 上进行视觉指令微调。RadMD 包含 3M 对放射学相关的多模态数据,确保了针对特定领域的微调过程中数据集的高质量和可靠性。