首页 > 医疗资讯/ 正文

【协和医学杂志】医学影像大模型:肿瘤精准诊疗的范式革新

来源 2025-08-09 12:25:42 医疗资讯

医学影像大模型是医学人工智能(AI)大模型的重要分支,指针对医学影像大规模数据集开发的深度学习模型。在数字化医疗快速发展的新时代,医学影像大模型正引领着肿瘤诊疗领域发生一场深刻变革。随着我国医疗信息化建设进入高质量发展新阶段,各级医疗机构已构建起完善的数字化影像诊断体系。各医院通过医学影像存档与通信系统(PACS)及云端存储,实现了对医学数据的大量存储和快速传输,高质量医学影像数据呈现暴发式增长态势。

截至2022年,中国大陆已有2806个区/县进行了癌症登记网络的部署,覆盖率高达98.6%[1],为肿瘤负担数据的精确捕捉奠定了重要基础。以甲状腺癌为例,2022年新增的25.6万病例中24.5万例来自癌症登记,这一精准统计很大程度上得益于癌症登记制度的普及。同时,多种癌症早期筛查技术(如低剂量CT筛查肺结节、胃肠镜筛查结直肠癌、钼靶/超声筛查乳腺癌等)的推广应用,显著提高了高危人群的癌症检出率。这些进展为基于多中心大数据的肿瘤精准诊疗研究提供了前所未有的发展机遇。

肿瘤精准诊疗是现阶段临床医学最具挑战性的领域之一,同时也是医学领域的未来发展趋势和基本要求,其复杂性主要体现在三个方面:肿瘤生物学行为的显著异质性、患者个体差异的多样性以及诊疗决策的多学科交叉性。传统AI技术在肿瘤诊疗中的应用长期受限于“单任务、单病种”的开发范式,即通过构建单模态或多模态深度学习模型,针对单病种的医学数据开展模型训练,可针对单病种目标任务取得良好表现,但难以满足临床实践对智能诊断系统泛化性和适应性的迫切需求,且不同病种模型的重复开发导致训练成本增加。

此外,该类模型在应用于发病率低、数据少的罕见病种时性能显著受限。相比之下,多任务模型可通过使用同一底层特征编码器对不同任务进行预测,不仅减少了模型训练成本,且可通过任务间的知识迁移增强了模型的临床适用性,这与实际诊疗过程中对患者多维度评估的需求高度契合。

当前,全球医学影像数据持续增长,这一数据资源为医学影像大模型的训练与优化提供了坚实基础。医学影像大模型通过三大技术创新实现了诊疗范式的根本性转变:首先,构建了多中心、多模态、多病种的一体化数据处理框架;其次,运用自监督学习等前沿技术充分挖掘海量数据的潜在价值;最后,建立了跨机构、跨病种的知识迁移机制。

临床实践表明,医学影像大模型在肿瘤早期筛查、精准分型、疗效评估和预后预测等关键环节展现出了革命性突破。其核心优势在于:实现了多源信息的深度融合与智能解析,构建了可迁移、可扩展的知识体系,形成了持续进化、自我优化的智能诊疗系统。这些突破性进展正在推动肿瘤诊疗从“传统经验”模式向“智能精准”模式转变。

本文基于医学影像大模型的关键要素,从大规模数据集构建、大模型算法优化、算力资源需求三方面对医学影像大模型的研究现状进行系统梳理,并对医学大模型在肿瘤精准诊疗中的应用场景及未来发展趋势进行阐述,旨在推动医学影像大模型从技术创新向临床价值的有效转化。

1 医学影像大模型

医学影像大模型是大模型在医学影像领域的专业性应用,其能够整合海量医学知识,优化诊疗流程,并具有强大的知识迁移能力,通过学习种类繁多的癌症种类及肿瘤亚型自身特性,在疾病的早期诊断、多样化的诊疗方案制定方面展现出巨大潜力,最终推动肿瘤诊疗向着精准化、个体化迈进。现如今,医学影像AI技术正经历从单一任务模型向大模型范式的转变,大语言模型的兴起更进一步推动了医学影像大模型的发展,其不再局限于单一医学影像数据,而是通过多模态融合架构实现了医学影像资料与电子病历、诊断报告、科研文献等文本信息的有效整合。本文主要从两个阶段对其发展历程进行介绍。

通用大语言模型成功转化。随着AI大模型算法和高性能计算机图形处理器(GPU)的发展,以GPT-4架构为基础的ChatGPT是AI大模型在语言理解和生成领域成功应用的典范,证明了基础模型在知识储备充足的提前下,可通过少量新样本快速准确学习新任务[2]。与GPT系列不同,杭州深度求索人工智能基础技术有限公司研发的DeepSeek-V3采用了混合专家(MoE)的架构,其仅需激活少量参数即可完成推理任务,极大程度降低了训练成本,并基于MoE架构开发了动态负载均衡策略,在节省计算资源的同时有效提升了模型的训练稳定性。

此外,DeepSeek-V3从预训练大模型垂直应用出发,针对特定领域大规模数据集使用强化学习算法,极大提高了模型在推理类任务上的表现水平。通用大语言模型LLaMA[3]则通过对参数量进行调整获得了不同的衍生版本,如Alpaca(约70亿参数量)、Vicuna(约130亿参数量),并垂直应用于数据分析、文本生成、机器人对话等不同领域,亦取得了出色的成绩。将通用大语言模型与图像、视频深度融合的多模态AI模型(如CLIP)如今已实现了对图像或视频高层次语义的理解,进一步拓展了大语言模型的应用场景,如图标解析、交互式编辑等,增加了多维度信息的整合能力和关联分析,可为肿瘤的精准诊疗提供更多依据和支持。

医学大语言模型垂直应用。由于医学文本数据与通用文本数据存在明显差异,其具有较多专业词汇及描述方式,直接使用通用文本数据集训练文本编码器难以取得理想成绩,为此研究人员基于PubMed等生物医学文献平台构建专业数据集,并相继开发了PubMedBERT[4]、BioBERT[5]和ClinicalBERT[6]等医学专用预训练模型,这些模型在医学文本理解任务中展现出显著优势。相比自然图像,医学影像具有相对独特的成像方式,将通用的AI大模型垂直应用到医学影像各个方面已成为研究热点,如微软研究院开发的医学视觉-语言模型BiomedCLIP模型[7],其融合了CLIP的视觉理解能力[8]和PubMedBERT的医学语义表征[4],构建了规模为1500万的图像-文本配对数据集,经验证在医学图像检索与分类、视觉问答等多个方面性能均优于其他基线模型,为医学多模态研究提供了新的技术范式。

总之,综合影像学检查、病理诊断和基因检测等多维度信息为不同患者实施个性化治疗是精准诊疗的核心理念和具象化呈现,在此过程中医学影像学检查凭借非侵入性、结果客观、可重复性强等优势,在疾病筛查、肿瘤全周期管理中发挥着不可替代的作用。基于AI大模型和医学影像信息辅助临床医生针对性调整治疗方案,并避免无效、过度医疗,是实现肿瘤精准诊疗的必然路径。

2 医学影像大模型研究现状

2.1 医学影像大规模数据集构建

医学影像数据采集存在明显的中心差异,不具有统一规范标准,如影像中CT、MRI、PET不同扫描参数的设置差异,病理中使用不同倍镜采集全视野数字影像(WSI)的尺度差异[9]。因此大规模数据集构建时,首先需对医学影像数据进行标准化。2016年,致力于实现智能自动化时代的开放学术国际知名组织FORCE11提出了FAIR[Findable(可查询),Accessible(可访问),Interoperable(可交互),Reusable(可再用)] 数据管理准则,为医学影像数据的标准化管理建立了重要框架。通过建立标准化的数据管理流程和元数据(metadata)规范,实现对医学影像数据的FAIR化和结构化,结合科学的数据管理方法,可提高医学影像大模型对不同来源数据的可操作性,简化对数据进行降噪、标准化等预处理方法的统一操作,为开发鲁棒性更强的医学影像大模型奠定了坚实基础[10-11]

除数据标准化外,患者隐私安全是医学影像大规模数据集构建时另一个需重点关注的问题。随着各医疗机构信息化建设程度越来越高,存储数据规模越来越大,患者隐私安全泄露的风险也随之增加。医学数据包含患者的个人身份、健康状况、诊疗过程等敏感信息,泄露患者隐私会对社会造成恶劣影响,并严重违背医院伦理规定及相关法律法规。《中华人民共和国基本医疗卫生与健康促进法》第九十二条明确提出:“国家保护公民个人健康信息,确保公民个人健康信息安全。任何组织或个人不得非法收集、使用、加工、传输公民个人健康信息,不得非法买卖、提供或者公开公民个人健康信息。”数据安全隐患会导致“数据孤岛”现象进一步加剧,这显然不利于大规模数据集的建立。为此,2016年谷歌团队提出了“联邦学习”概念,并于2017年发布了联邦学习的应用场景,该方法是通过分布式机器学习算法进行算法部署,核心思想是允许多个参与方在不共享原始数据的情况下协同训练机器学习模型。中心服务器根据多个客户端本地训练的模型进行参数优化,避免了数据集中训练带来的安全隐患,并节约了海量数据训练带来的时间成本[12]。基于上述理论,2021年Warnat-Herresthal等[13]Nature上提出了“群体学习”的概念,其在联邦学习的基础上进一步实现了多中心学习的去中心化,保证模型训练的安全性和稳定性,降低了大规模数据云端传输的时间成本,上述探索为患者隐私安全和数据孤岛问题提供了可解决路径。

2.2 医学影像大模型算法优化

医学影像大模型的发展面临着多模态数据融合和疾病异质性双重挑战。不同模态间的医学影像数据(如CT、MRI、PET等)存在显著的语义和特征空间差异,这导致多模态大模型训练过程中易出现模态失衡问题,即某些优势模态可能主导整个模型的学习过程。同时,不同癌种在生物学特性、病理过程和影像表现上的异质性,以及同一癌种在不同患者间的个体差异,共同构成了模型泛化的主要障碍。这些特性使得现有AI大模型难以在所有癌种的分类、诊断应用中均取得理想效果,并导致相同模型在不同医疗中心的性能存在显著差异。

为应对上述挑战,研究者开发了现代医学影像大模型依托的三大核心技术:自监督学习、Transformer架构和对比学习算法。在增强CT、MRI影像中,不仅不同癌种的强化表现存在显著差异,且同一癌种的不同肿瘤亚型和数据采集的参数设置(MRI影像)均会对图像像素点的强度值分布产生影响,即肿瘤异质性在影像学层面的表现形式。因此医学影像大模型通常需大量数据进行模型训练以增强其鲁棒性,但大规模数据集的精准标注成本过高,限制了其实际可操作性。

自监督学习作为基础模型的核心算法范式,通过设计图像修复、模态转换等预测性任务,能够从海量无标注医学数据中学习通用特征表示,不仅突破了数据标注的瓶颈,更为重要的是捕捉到了医学数据中深层次的生物学规律,其主要包括生成式自监督和重建式自监督。生成式自监督算法包括变分自编码器(VAE)[14]、生成对抗网络(GAN)[15]和扩散模型(diffusion model)[16]等;重建式自监督算法中,掩码自编码器(MAE)[17]及相关算法具有重要影响力。前者通过生成与真实数据相似的伪样本学习图像内在特征,后者通过恢复图像缺失部分学习图像的局部与全局特征,实现对大规模数据集丰富类型的数据样本的充分学习。

谷歌团队提出的Transformer架构通过其独特的注意力机制,实现了跨模态特征的动态融合,该机制可自动评估和调整不同模态特征的贡献权重,有效避免了单一模态主导模型训练的问题。对比学习算法则通过构建正负样本对来学习数据的高维特征表示,在医学影像大模型训练中展现出独特优势,不仅能有效挖掘不同癌种和模态间的特征差异性与相似性,还可平衡多模态特征的权重,显著提升模型的数据利用效率。

这些核心技术的协同应用为医学影像大模型性能的提升带来了质的飞跃和前所未有的发展机遇。基于Transformer的注意力机制与对比学习算法相结合,可使模型能够更好地理解医学数据的复杂关系;自监督学习预训练获得的通用表征,可为下游任务提供丰富的先验知识;而多任务学习策略在共享参数的同时可进行多个相关任务的优化,进一步增强了模型的泛化能力。此种技术融合路径不仅实现了更精准的多模态信息融合,还能更好地应对临床场景中的域偏移问题,为开发具有更强泛化能力的医学AI系统指明了方向,必将推动医学影像大模型在精准医疗中的深入应用。当前研究表明,采用这些技术的医学影像大模型可在下游任务微调时使用较少的数据集取得满意效果[18],特别是在罕见病和复杂病例的诊断中展现出独特优势。

2.3 医学影像大模型算力资源需求

高性能计算平台是医学影像大模型训练的硬件保障,为使用医学多模态大规模数据集度模型进行训练,充分挖掘数据的深度特征,医学影像大模型参数量往往高达数十亿至数百亿[19],通常会采用一些高性能的计算设备和技术,如英伟达公司的A100、H100等高端GPU集群,以及云计算平台提供的强大算力资源以满足模型训练。

由于使用单个GPU或少量GPU难以对预训练参数进行直接调用,在没有充足算力的支持下,可通过使用大模型轻量级版本进行模型训练,例如MedSAM[20]可在保证图像嵌入特征向量尺寸不变的情况下,将原始模型中的视觉编码器模块ViT替换为轻量化视觉编码器模块TinyViT,以降低对GPU显存的要求。

此外,知识蒸馏技术也可在一定程度上弥补算力不足的问题。Guo等[21]通过输入压缩和模型压缩两个阶段,在显著降低网络计算复杂度的前提下,通过辅助网络尽可能避免蒸馏中间特征的语义丢失问题,而Light-M则设计了云端教师模型向本地学生模型的蒸馏过程,从而实现模型的轻量化,为医学影像大模型的广泛应用提供了可能[22]

3 医学影像大模型在肿瘤精准诊疗中的应用场景

医学影像大模型在患者诊疗的各个环节均具有巨大应用前景,将医学影像大模型与大语言模型相结合构建多模态医学AI大模型,可使得模型分析结果更具鲁棒性。在临床诊疗过程中,其可充分发挥医学影像与电子病历、诊断报告等文本信息相融合的优势,对临床精准诊疗具有重要引导作用。以潜在的肿瘤患者诊疗过程为例,应用场景主要包括实现肿瘤患者疾病筛查、优化肿瘤患者分诊就医以及指导肿瘤患者个性化医疗三个方面。

第一,实现肿瘤患者癌症筛查:对于高发癌症(如肺癌、乳腺癌、结直肠癌),早期筛查对于改善患者预后、降低疾病死亡率至关重要[23]。针对高发病率人群的筛查,目前常用检查包括X线片、超声、CT和内镜。这些传统手段能够在一定程度上发现早期病变的存在,但难以准确判断病变性质及其发展趋势。而基于深度学习技术的医学影像大模型可充分挖掘影像特征蕴含的内在信息,实现病变性质的早期判断和精准识别,在一些瘤种鉴别诊断方面展现出的能力甚至已经超越了经验丰富的临床专家,高效助力肿瘤的筛查和早期诊断,并为早期干预提供依据。此外,结合受试者基本生理健康数据,如年龄、性别、生活习惯、家族病史以及身高、体重,可为疾病的发生发展提供重要线索,为预后的早期评估提供科学支撑。

第二,优化肿瘤患者分诊就医流程:通过对患者的疾病筛查结果、主诉、现病史、既往检查报告进行整合,医学AI大模型可实现患者的精确分诊,一方面有助于缓解门诊医务人员的工作压力;另一方面可将患者自动分配给主导科室,进一步缩短患者检查的冗余过程,减少就诊等待时间,提高临床诊疗效率,改善患者就医体验。此外,医学AI大模型还可通过对患者病历情况及影像结果进行综合分析,实现异常值、危急值的标注和智能风险预警,为临床决策提供支持。

第三,指导肿瘤患者个性化医疗:首先,医学影像大模型通过将预训练与下游任务微调相结合,构建多任务学习框架,包括对肿瘤病灶区域的智能识别、病灶良恶性的精准判断、预后风险的早期预测,从而为肿瘤患者个性化诊疗提供可靠的决策支持。在使用医学影像大模型对不同癌种下游任务进行微调时,应以临床先验知识为引导进行针对性设计,多模态特征融合及注意力机制的使用需符合临床诊疗逻辑,通过梯度加权类激活映射(Grad-CAM)等可视化技术对大模型的特征提取和融合过程进行详细剖析,从而使临床医生更好地理解在模型决策中起决定性作用的变量特征,提高医生对AI的信任度。

其次,大语言模型的兴起为提升多模态AI大模型的结果可解释性提供了新思路,通过临床文本信息为AI大模型训练设置视觉问答(VQA)提示模块,可引导模型学习临床所需的相关信息[24-25],并利用文本生成模型及对比学习方法对视觉-语言信息的匹配功能,以进一步验证模型可解释性[26]

最后,基于多时序数据,即不同时间点的影像数据以及患者的常规生理健康数据,医学AI大模型可发现数据背后隐藏的规律和特征,实现病变的早期诊断及其发展趋势的精准预测,这不仅有助于为患者争取最佳的治疗时机,还可避免不必要的过度治疗,从而为患者实施个性化医疗。

4 医学影像大模型在肿瘤精确诊疗中的未来发展趋势

随着算法的精进和技术的革新,医学影像大模型的性能有望取得更多突破,而这必将推动医疗信息化的高速发展,从而为肿瘤精准诊疗提供全方位支持。

首先,在数据方面,多中心协作将会更加紧密,并推动数据共享机制不断完善,在保障患者隐私的前提下,实现更广泛、更全面的数据整合,为进一步扩大和优化多模态数据集奠定基础。同时,新的数据采集技术和标准化流程将持续发展,以减少数据的异质性和中心差异,为模型训练提供更高质量的数据支持。

其次,在模型发展方面,其泛化性和可解释性将会进一步提升。新的对比学习、多任务学习等算法将会不断涌现和优化,使模型能更好地适应不同癌种和多模态数据,提高其在各种临床场景下的性能表现。

再次,在可解释性方面,除现有方法外,新的可视化技术和可解释性模型将不断被研发,大语言模型与多模态医学影像大模型的融合也更加深入,使AI大模型决策过程更加透明,为临床医生提供更加可靠的决策依据。

最后,在临床应用方面,将医学影像大模型与医院信息化深度融合,实现算法部署、训练优化、临床辅助诊断一体化,为肿瘤诊疗提供指导和决策支持,是医学AI大模型未来发展的大势所趋。

目前,国内多家医院已着手部署以DeepSeek为代表的医学影像大模型,将其嵌入信息化管理系统,进一步推动了医院数字化转型。DeepSeek是我国自主研发的通用大语言模型,目前主要应用于以下方面:

1 智能化门诊管理:实现诊疗流程结构化设计,智能引导患者就诊路径,优化患者就诊流程,有效维护门诊秩序;

2 智慧病房管理:包括病床资源自动化分配、患者健康信息智能化管理、科室值班人员系统化配置,减少临床工作人员冗余的文案工作,缓解工作压力;

3 个性化医疗支持:辅助治疗方案的制定、调整,助力精准医疗的实施。

随着医学影像大模型在临床的广泛使用,在监管层面,相关法律法规和监管标准正在不断完善,在确保医学影像大模型在肿瘤诊疗中应用安全性、有效性和可靠性的基础上,推动其规范普及,为全球肿瘤防治事业注入新的科技动力[27]

5 小结

医学影像大模型通过多模态融合、自监督学习与高效微调技术,正在重构肿瘤精准诊疗的底层逻辑。其核心突破不仅在于技术指标的提升,更体现在对医学认知范式的革新,即从“单一模态解析”到“多维度系统分析”,从“静态诊断”到“动态预测”,从“黑箱决策”到“透明推理”。当前AI技术正在推动医学影像从辅助工具向智能基础设施转型,若要实现其全面的临床转化,仍需攻克数据、算力与流程整合的“最后一公里”。未来十年,随着跨学科创新联盟的建立,完善的评价标准与监管框架的制订,以患者为中心的医学AI生态系统的培育,医学影像大模型在多组学整合、因果推理与闭环学习技术方面必将取得跨越性进展,有望成为肿瘤诊疗的核心驱动力量,重塑现代肿瘤诊疗范式,推动临床实践从“标准化”向“个体化”的根本转变。

参考文献

[1]Han B F, Zheng R S, Zeng H M, et al. Cancer incidence and mortality in China, 2022[J]. J Natl Cancer Cent, 2024, 4(1): 47-53.

[2]Open AI, Achiam J, Adler S, et al. GPT-4 technical report[DB/OL]. (2024-03-04)[2025-04-09].https://doi.org/10.48550/arXiv.2303.08774.

[3]Touvron H, Lavril T, Izacard G, et al. LLaMA: Open and efficient foundation language models[DB/OL]. (2023-02-27)[2025-04-09].https://doi.org/10.48550/arXiv.2302.13971.

[4]Gu Y, Tinn R, Cheng H, et al. Domain-specific language model pretraining for biomedical natural language processing[J]. ACM Trans Comput Healthc, 2021, 3(1): 1-23.

[5]Lee J, Yoon W, Kim S, et al. BioBERT: a pre-trained biomedical language representation model for biomedical text mining[J]. Bioinformatics, 2020, 36(4): 1234-1240.

[6]Huang K X, Altosaar J, Ranganath R. ClinicalBERT: modeling clinical notes and predicting hospital readmission[DB/OL]. (2020-11-29)[2025-04-09].https://doi.org/10.48550/arXiv.1904.05342.

[7]Zhang S, Xu Y B, Usuyama N, et al. BiomedCLIP: a multimodal biomedical foundation model pretrained from fifteen million scientific image-text pairs[DB/OL]. (2025-01-08)[2025-04-09].https://doi.org/10.48550/arXiv.2303.00915.

[8]Radford A, Kim J W, Hallacy C, et al. Learning transferable visual models from natural language supervision 2021[DB/OL]. (2021-02-26)[2025-04-09].https://doi.org/10.48550/arXiv.2103.00020.

[9]Niu C, Lyu Q, Carothers C D, et al. Medical multimodal multitask foundation model for lung cancer screening[J]. Nat Commun, 2025, 16(1): 1523.

[10]Vesteghem C, Brøndum R F, Sønderkær M, et al. Implementing the FAIR data principles in precision oncology: review of supporting initiatives[J]. Brief Bioinform, 2020, 21(3): 936-945.

[11]Wilkinson M D, Dumontier M, Sansone S A, et al. Evaluating FAIR maturity through a scalable, automated, community-governed framework[J]. Sci Data, 2019, 6(1): 174.

[12]McMahan H B, Moore E, Ramage D, et al. Communica-tion-efficient learning of deep networks from decentralized data[C]//Proceedings of the 20th International Conference on Artificial Intelligence and Statistics. Fort Lauderdale: PMLR, 2017: 1273-1282.

[13]Warnat-Herresthal S, Schultze H, Shastry K L, et al. Swarm learning for decentralized and confidential clinical machine learning[J]. Nature, 2021, 594(7862): 265-270.

[14]Kingma D P, Welling M. Auto-encoding variational bayes[DB/OL]. (2022-12-10)[2025-04-09].https://doi.org/10.48550/arXiv.1312.6114.

[15]Goodfellow I J, Pouget-Abadie J, Mirza M, et al. Genera-tive adversarial networks[DB/OL]. (2014-06-10) [2025-04-09].https://doi.org/10.48550/arXiv.1406.2661.

[16]Yang L, Zhang Z L, Song Y, et al. Diffusion models: a comprehensive survey of methods and applications[DB/OL]. (2024-12-02)[2025-04-09].https://doi.org/10.48550/arXiv.2209.00796.

[17]He K M, Chen X L, Xie S N, et al. Masked autoencoders are scalable vision learners[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Los Alamitos, BFQ〗CA: IEEE Computer Society, 2022: 15979-15988.

[18]Schäfer R, Nicke T, Höfener H, et al. Overcoming data scarcity in biomedical imaging with a foundational multi-task model[J]. Nat Comput Sci, 2024, 4(7): 495-509.

[19]Qiu J N, Li L, Sun J K, et al. Large AI models in health informatics: applications, challenges, and the future[J]. IEEE J Biomed Health Inform, 2023, 27(12): 6074-6087.

[20]Ma J, He Y T, Li F F, et al. Segment anything in medical images[J]. Nat Commun, 2024, 15(1): 654.

[21]Guo G Y, Zhang D W, Han L F, et al. Pixel distillation: cost-flexible distillation across image sizes and heterogeneous networks[J]. IEEE Trans Pattern Anal Mach Intell, 2024, 46(12): 9536-9550.

[22]Zhang T, Lin J, Jiao J Y, et al. An interpretable latent denoising diffusion probabilistic model for fault diagnosis under limited data[J]. IEEE Trans Industr Inform, 2024, 20(8): 10354-10365.

[23]Ardila D, Kiraly A P, Bharadwaj S, et al. End-to-end lung cancer screening with three-dimensional deep learning on low-dose chest computed tomography[J]. Nat Med, 2019, 25(6): 954-961.

[24]Xiang J X, Wang X Y, Zhang X M, et al. A vision-language foundation model for precision oncology[J]. Nature, 2025, 638(8051): 769-778.

[25]Lu M Y, Chen B W, Williamson D F K, et al. A visual-language foundation model for computational pathology[J]. Nat Med, 2024, 30(3): 863-874.

[26]Li X, Zhao L, Zhang L, et al. Artificial general intelligence for medical imaging analysis[J]. IEEE Rev Biomed Eng, 2025, 18: 113-129.

[27]Zhang S T, Metaxas D. On the challenges and perspectives of foundation models for medical image analysis[J]. Med Image Anal, 2024, 91: 102996.

Tags: 【协和医学杂志】医学影像大模型:肿瘤精准诊疗的范式革新  

搜索
网站分类
标签列表