分享:
分享到微信朋友圈
X
综述
卷积神经网络与Vision Transformer在胶质瘤中的研究进展
杨浩辉 徐涛 王伟 安良良 敖用芳 朱家宝

本文引用格式:杨浩辉, 徐涛, 王伟, 等. 卷积神经网络与Vision Transformer在胶质瘤中的研究进展[J]. 磁共振成像, 2026, 17(1): 168-174. DOI:10.12015/issn.1674-8034.2026.01.026.


[摘要] 胶质瘤因高度异质性、强侵袭性及预后差,传统诊疗面临巨大挑战。深度学习技术的引入为其精准诊疗提供了新路径,其中卷积神经网络(convolutional neural network, CNN)与Vision Transformer(ViT)是核心工具。CNN凭借层级化卷积操作在局部特征提取(如肿瘤边缘、纹理细节)上具有天然优势,而ViT基于自注意力机制在全局上下文建模(如肿瘤跨区域异质性、多模态关联)方面表现突出,二者的融合策略通过整合局部精细特征与全局关联信息,在应对胶质瘤边界模糊、跨模态数据异构性等临床难题中展现出显著优势。本文综述了二者在胶质瘤检测与分割、病理分级、分子分型、预后评估等关键临床任务中的研究进展,阐述了原理、单独应用及融合策略。同时,本文也探讨了当前研究中存在的挑战,诸如对数据标注的强依赖性、模型可解释性不足等问题,并展望了未来的发展方向,例如构建轻量化架构、发展自监督学习以及推进多组学融合等前沿,以期为胶质瘤智能诊断提供系统性参考。
[Abstract] Gliomas pose significant challenges to traditional diagnosis and treatment due to their high heterogeneity, strong invasiveness, and poor prognosis. The introduction of deep learning (DL) technology has opened up a new avenue for their precise diagnosis and treatment, among which convolutional neural network (CNN) and Vision Transformer (ViT) are core tools. CNN inherently excels in local feature extraction (e.g., tumor edges, texture details) through hierarchical convolution operations, while ViT stands out in global context modeling (e.g., cross-regional heterogeneity of tumors, multimodal correlations) based on the self-attention mechanism. The fusion strategy of CNN and ViT integrates local fine-grained features with global associated information, demonstrating remarkable advantages in addressing clinical dilemmas such as blurred glioma boundaries and cross-modal data heterogeneity. This article reviews the research progress of CNN and ViT in key clinical tasks of gliomas, including detection and segmentation, pathological grading, molecular subtyping, and prognosis assessment. It elaborates on their principles, individual applications, and fusion strategies. Furthermore, it discusses the prevailing challenges in the field, such as the heavy reliance on annotated data and insufficient model interpretability, and outlines promising future research directions, including the development of lightweight architectures, the advancement of self-supervised learning paradigms, and the promotion of multi-omics integration. This review thereby provides a systematic reference for the intelligent diagnosis of gliomas.
[关键词] 胶质瘤;深度学习;卷积神经网络;Vision Transformer;磁共振成像
[Keywords] glioma;deep learning;convolutional neural network;vision transformer;magnetic resonance imaging

杨浩辉 1, 2   徐涛 3   王伟 4   安良良 5   敖用芳 6   朱家宝 2*  

1 长治医学院,长治 046000

2 山西医科大学附属运城市中心医院神经外科,运城 044000

3 山西医科大学附属运城市中心医院病理科,运城 044000

4 山西医科大学附属运城市中心医院放疗科,运城 044000

5 山西医科大学附属运城市中心医院超声科,运城 044000

6 贵州省第三人民医院急诊医学科,贵阳 550001

通信作者:朱家宝,E-mail:zhujiabao1982@163.com

作者贡献声明:朱家宝设计本研究的方案,对稿件重要内容进行了修改,获得了山西省卫生健康委员会科研项目的资助;杨浩辉起草和撰写稿件,获取、分析和解释本研究的数据;徐涛、王伟、安良良、敖用芳获取、分析或解释本研究的数据,对稿件重要内容进行了修改;全体作者都同意发表最后的修改稿,同意对本研究的所有方面负责,确保本研究的准确性和诚信。


基金项目: 山西省卫生健康委员会科研项目 2021017
收稿日期:2025-08-26
接受日期:2025-12-09
中图分类号:R445.2  R730.264 
文献标识码:A
DOI: 10.12015/issn.1674-8034.2026.01.026
本文引用格式:杨浩辉, 徐涛, 王伟, 等. 卷积神经网络与Vision Transformer在胶质瘤中的研究进展[J]. 磁共振成像, 2026, 17(1): 168-174. DOI:10.12015/issn.1674-8034.2026.01.026.

0 引言

       胶质瘤是成人中枢神经系统最常见的原发性恶性肿瘤,其精准诊断与个体化治疗一直是临床和科研的核心挑战。传统影像诊断依赖人眼识别,易遗漏早期细微病变,或受医生经验与主观判断影响导致诊断结果差异,而且传统诊断常孤立分析影像、病理、基因等单一数据,缺乏多模态整合能力[1]。随着人工智能发展,深度学习为胶质瘤智能诊疗提供了革命性工具,可实现肿瘤区域高精确度自动分割,替代手动操作[2];能捕捉人眼难察觉的特征,从术前MRI中无创预测肿瘤分级、基因分型及复发风险[3];还可整合影像组学、基因测序、病理组学等多模态数据,挖掘跨数据关联特征,提供更全面的诊断依据[4]

       尽管已有综述分别总结了卷积神经网络(convolutional neural network, CNN)[5]或Vision Transformer(ViT)[6]在医学影像中的应用,亦有研究对二者进行了初步比较[7],但现有工作多侧重于单一模型原理或宽泛任务,缺乏在胶质瘤这一高异质性肿瘤诊疗全链条中,对CNN与ViT进行系统性任务对标、性能剖析、并深入探讨其融合策略与临床转化路径的专门论述。本综述旨在弥补这一不足,通过系统梳理CNN与ViT在胶质瘤检测分割、病理分级、分子分型及预后评估等核心任务中的应用进展,着重分析二者单独及融合模型的优势、局限与适配场景,以期为领域研究者与临床工作者提供一份既涵盖技术原理又紧扣临床需求的系统性参考,推动胶质瘤智能诊断向更高精确度、更强可解释性与更佳临床效用发展。

       在胶质瘤深度学习研究中,CNN和ViT是主流模型,二者各有特点。CNN是目前胶质瘤深度学习诊疗的主流方向,而ViT则展示出惊人的增长潜力,近年来涉及ViT的研究逐年增长[6, 8]。CNN凭借层级化卷积操作,在局部特征提取上优势显著,早期在分割、良恶性鉴别等依赖细节的任务中占主导[5],但感受野受限于卷积核尺寸,难以捕捉肿瘤与远隔组织的长距离关联及多模态全局依赖。ViT基于自注意力机制建模全局上下文,在解析肿瘤跨区域异质性、融合多模态特征等复杂场景中潜力大,但其对数据和计算资源需求高、局部细节表征不足,在数据稀缺、细节敏感的医学领域单独应用有局限[7]

       随着研究深入,单一模型局限性凸显,CNN与ViT的融合成为突破瓶颈的关键。混合架构串联CNN的局部特征提取与ViT的全局建模,实现特征互补与解释性协同——既发挥CNN对局部细节的精准捕捉能力,又借助ViT对全局上下文的高效建模能力,同时通过局部热力图与全局注意力权重联合可视化,提升决策透明度与临床信任度,在应对肿瘤异质性、多模态数据不平衡、可解释性不足、小样本泛化等核心挑战中优势显著[7, 9]

       基于此,本文将围绕检测与分割、病理分级、分子分型及预后评估等关键临床任务,系统剖析CNN、ViT及其融合模型的技术原理、应用现状与发展挑战,以期为胶质瘤智能诊断的未来研究提供清晰参考。

1 CNN与ViT的基本原理

       CNN受哺乳动物视觉皮层启发,专为处理图像等网格结构数据设计[10],通过卷积层、池化层与全连接层的层级组合,模拟人类视觉机制中局部特征提取与抽象表示的层级化过程,从而高效完成分类、检测、分割等任务[11]。自2012年AlexNet在ImageNet竞赛中突破后,CNN成为计算机视觉主流架构[12],经典模型包括LeNet、VGG、ResNet、DenseNet等,广泛应用于医学影像分析等领域。

       在影像分析中,CNN擅长捕捉边缘、纹理等局部精细特征,可精准聚焦关键信息并减少冗余计算,这对胶质瘤分割、早期微小病灶检测至关重要。其参数共享机制大幅精简模型参数,使其在医学领域常见的如罕见胶质瘤亚型小样本场景中更易训练且性能稳定;同时具备平移不变性,对输入数据的几何变换天然鲁棒。但CNN的感受野受限于卷积核尺寸,难以捕捉全局长距离特征关联,多模态全局建模能力较弱[11, 12],且决策过程类似“黑箱”,虽可通过梯度加权类激活映射(gradient-weighted class activation mapping, Grad-CAM)等技术定位关键区域,但对复杂空间关系的解释存在模糊性,难以满足临床对透明度的需求[13]

       ViT是2020年Google团队提出的模型,将Transformer架构从自然语言处理迁移至计算机视觉,通过自注意力机制实现全局特征建模,近年在医学影像分析中快速崛起。其核心是将图像转化为序列并复用Transformer架构,通过图像分块、序列转化及全局关联计算提取特征,框架由输入处理模块、Transformer编码器和输出头构成[14],常见模型包括B/16、Swin Transformer、MobileViT等。

       ViT的优势在于全局上下文建模,能突破CNN的局部感受野限制,捕捉胶质瘤跨区域异质性及多模态全局关联,对影像噪声或伪影的鲁棒性更强。其注意力权重可视化可精准定位与肿瘤分子标记相关的关键特征,例如在异柠檬酸脱氢酶1(isocitrate dehydrogenase 1, IDH1)突变预测中,注意力热图能清晰标记恶性细胞密集区域,直观展示分子标记与病理特征的空间关联,显式特征关联机制优于CNN的隐式决策。但ViT对数据需求量大,易因医学数据稀缺导致过拟合,且缺乏局部归纳偏置,局部细节捕捉能力较弱,可能丢失微小病灶边缘等关键特征[15, 16]。值得注意的是,Transformer最初是为自然语言处理任务设计的,常用于处理文本或语音数据,而ViT是专门针对计算机视觉领域开发的,主要用于解决图像相关的任务。ViT与原始Transformer共享自注意力机制这一核心,是其在视觉领域的延伸,但两者在架构、输入处理等方面存在显著差异,在医学图像处理中,融合Transformer机制而非直接使用ViT是务实且主流的选择,这种属于CNN与ViT融合的方式既保留CNN优势又引入Transformer全局建模能力,还能降低计算复杂度和数据需求,更贴合实际需求[16]

       CNN与ViT因原理差异形成天然互补,CNN擅长捕捉肿瘤边缘、微侵袭灶等局部特征,ViT则擅长建模肿瘤整体分布、跨模态关联等全局信息。二者结合时,CNN可弥补ViT的局部细节不足和高计算成本,ViT能强化CNN的全局关系捕捉能力;在可解释性上,混合模型融合局部热力图与全局注意力可视化,形成“局部定位与全局追溯”的完整解释链条,提升临床可信度,最终实现精确度、效率、泛化能力、可解释性及适用场景的综合优化[7, 17, 18]

2 CNN与ViT在胶质瘤检测与分割的应用

       胶质瘤的早期检测与精准分割是改善患者预后的关键。其为手术规划与神经功能保护提供了精确导航,并为放疗靶区勾画与个体化治疗决策提供了定量依据[1, 19]。针对瘤区边界模糊、多模态信息融合困难以及微小侵袭灶漏诊等核心临床瓶颈,基于CNN、ViT及其融合策略的新型人工智能方法近年来取得了显著进展,正加速推动该技术向临床实际应用转化。

       CNN凭借强大的局部特征捕捉能力,匹配“边界识别”与“微灶检出”的临床需求,成为早期胶质瘤检测与分割的核心工具。在检测与分类任务中,其高准确率优势显著。GUPTA等[19]采用InceptionResNetV2提取肿瘤MRI的细微纹理差异,结合随机森林实现胶质瘤、脑膜瘤与垂体癌的分类,检测准确率达99%,分类准确率达98%,验证了其多肿瘤鉴别潜力。DISCI等[20]进一步通过迁移学习微调Xception模型,将脑部MRI分为胶质瘤、脑膜瘤、垂体瘤及无肿瘤四类,准确率达98.73%,验证了CNN在小样本场景中的实用性,为低成本临床应用提供了高效路径。在更为复杂的像素级分割任务中,多模态整合与3D架构进一步提升精确度。RAHIMPOUR等[21]基于氟-18标记的氟代乙基酪氨酸正电子发射断层显像(O-(2-[18F]fluoroethyl)-L-tyrosine positron emission tomography, [18F]FET-PET)数据开发多标签CNN,检测敏感度达88.9%、精确度96.5%,分割体积与专家评估高度吻合,且经外部数据验证,体现跨中心稳定性。TRIPATHI等[22]设计含空间和通道注意力的3D CNN,通过特征校准实现多模态MRI分割,性能优于多种先进方法。RUDIE等[23]的3D nnU-Net利用多模态MRI序列,包括T1加权成像(T1-weighted imaging, T1)、T2加权成像(T2-weighted imaging, T2)、液体衰减反转恢复(fluid attenuated inversion recovery, FLAIR)序列等分割瘤周水肿、活动性肿瘤及坏死核心,戴斯相似系数(dice similarity coefficient, DSC)达0.72~0.89,体积相似性0.90~0.96,纵向变化分类准确率与神经放射科医生相当,凸显临床价值。

       ViT则凭借全局上下文建模能力,弥补了CNN在长距离特征关联上的局限,在多肿瘤分类、跨中心数据整合等需全局视角的任务中展现出独特价值。其预训练模型的跨场景迁移效果显著。TUMMALA等[24]采用ImageNet预训练ViT模型对T1加权增强(T1-weighted, T1w)MRI图像分类,总体准确率达98.7%。REDDY等[25]的微调模型FTVT-l16在胶质瘤、脑膜瘤、垂体瘤、无肿瘤四分类中准确率达98.70%,优于ResNet50的96.5%,印证全局建模优势。改进模型进一步突破性能瓶颈,WANG等[26]的Balanced Transformer优化补丁分割与自注意力机制,实现原发性中枢神经系统淋巴瘤与胶质母细胞瘤(glioblastoma, GBM)的精准区分,准确率达99.89%。ASIRI等[27]的Swin Transformer(ViT变体)在四分类中准确率达97%,更适应密集预测任务。然而,ViT性能与数据规模密切相关,XIONG等[28]的研究显示,在211例中小规模数据集中,ResNet34性能优于ViT-base,提示需结合数据量选择架构或采用增强策略。

       CNN与ViT的融合策略通过优势互补进一步提升性能,形成多类成熟架构。并行式融合中,LI等[29]的DeepGlioSeg采用U型架构,通过CTPC模块并行提取CNN局部特征与Transformer全局特征,结合区域概率加权机制为如瘤周水肿边界的低概率区域分配更高权重,聚焦肿瘤分割,最终在多个数据集上性能优于其他先进方法。ZEINELDIN等[30]的TransXAI模型以U型编码器-解码器为基础,深度整合CNN与ViT优势,在脑肿瘤分割挑战赛(Brain Tumor Segmentation Challenge, BraTS)2019数据集上,全肿瘤、肿瘤核心、增强肿瘤的DSC分别达0.882、0.782、0.745,豪斯多夫距离优于多数现有方法,其基于Grad-CAM的后验可解释性模块通过显著性热图,直观展示模型对不同肿瘤亚区域的关注重点及各MRI模态(如FLAIR对水肿、T1w对强化病灶)的贡献权重,提升临床可信度。双编码器融合中,ZHUANG等[31]的3D层次跨模态交互网络(HCMINet),通过层次跨模态交互Transformer(HCMITrans)编码器与模态共享卷积编码器构建双编码器架构,结合渐进式混合上下文融合解码器,在BraTS2020和BraTS2021数据集上平均DSC值分别达85.33%和91.09%,优于现有基于Transformer和CNN的方法,有效解决多参数MRI图像中胶质瘤精确分割难题。

       综上,在胶质瘤的检测与分割中,模型的选择取决于具体任务与数据条件。对于侧重局部边界勾画的单模态高分辨率数据,计算高效的CNN是稳健首选;若任务需整合多模态MRI并理解全局关联,且数据充足,则ViT能提供更强的整体建模能力;而在面临边界模糊、异质性的复杂场景时,融合CNN与ViT优势的混合模型已成为前沿方向,它们在提升性能的同时也增强了可解释性。

3 CNN与ViT在胶质瘤的分级的应用

       胶质瘤分级对患者预后判断和治疗方案制定至关重要,高级别胶质瘤(high-grade glioma, HGG; WHO Ⅲ/Ⅳ级)中位生存期显著短于低级别(low-grade glioma, LGG; WHO Ⅰ/Ⅱ级),其直接指导临床诊疗策略(如低级别以手术为主、高级别需强化综合治疗)是连接病理、诊疗与预后的核心环节及精准医学的关键基石[1]

       CNN在胶质瘤分级中应用广泛且成效显著,基于MRI的模型普遍通过捕捉肿瘤形态、强化模式等关键特征实现LGG与HGG的高效区分。ZHUGE等[32]开发的2D(基于Mask R-CNN)与3D ConvNet模型,均达到临床可用精确度(敏感度和特异度均> 93%),且3D模型因整合空间上下文,准确度更优(97.1% vs. 96.3%),证实三维特征的增益。多特征融合策略进一步提升性能,如XU等[33]融合CNN深层特征与传统放射组学特征,受试者工作特征曲线下面积(area under the curve, AUC)达0.958。FASIHI SHIREHJINI等[34]采用预训练VGG-16提取多序列MRI特征,结合支持向量机分类器实现Ⅰ~Ⅳ级分级,准确率达99.38%,凸显迁移学习与传统机器学习结合的优势。多组学整合研究中,MUNQUAD等[35]构建的框架整合转录组与甲基化组数据,CNN对LGG与GBM的分类准确率分别达98.03%和94.07%。病理组学方面,SHIRAE等[36]通过CNN从数字病理全切片图像(whole slide image, WSI)提取微观特征,结合临床数据,在平衡与不平衡数据集上均实现了93.6%与96.7%的准确率,但基于WSI的研究仍较有限,可能与获取成本及技术复杂度有关,也反映出CNN在处理超大尺寸、需全局理解的病理图像时可能存在架构上的局限。

       目前,单独应用ViT于胶质瘤分级的研究较为罕见,这与其对大规模标注数据的高要求及在细粒度局部特征捕捉上的相对劣势有关。而融合CNN与ViT的混合架构展现出更大潜力。ELAZAB等[37]提出的混合架构,融合2D、3D多模态CNN、ViT与手工特征,结合堆叠集成分类器实现精准分级。该架构发挥CNN捕捉局部病理细节(如细胞纹理、肿瘤边缘)与ViT建模全局组织关联(如坏死与肿瘤核心分布)的优势,构建“局部-全局”协同分析链条,契合病理诊断逻辑。其跨模态注意力融合机制可动态调整特征权重,提升决策透明度,经消融实验、互信息分析及Grad-CAM可视化验证,模型决策与病理事实一致,可解释性强。在The Cancer Genome Atlas(TCGA)和深度组织病理学数据集(DeepHistology Dataset, DeepHisto)数据集上,准确度分别达97.1%和95.0%,显著优于现有方法,为分级提供高精确度且可追溯的解决方案。

       综上,在胶质瘤分级实践中,基于MRI的CNN模型因技术成熟、性能稳定仍是主流首选;针对多模态数据或病理图像分析等更具挑战性的场景,CNN-ViT融合架构展现出高性能与强可解释性的前沿优势,但存在计算复杂度较高的问题,纯ViT模型的规模化应用仍需更多数据与算法支撑。

4 CNN与ViT在胶质瘤的分子分型的应用

       胶质瘤分子分型已从传统组织学形态分级转向分子特征主导的精准模式,WHO于2016 年首次将分子标志物与组织学结合,并在2021年版分类中进一步强化其主导地位[38]。分子分型通过IDH1/2突变、1号染色体短臂和19号染色体长臂联合缺失(1p/19q co-deletion, 1p/19q)等基因检测,可精准明确胶质瘤亚型、指导治疗及评估预后,对精准诊疗至关重要[1]。深度学习技术通过分析医学影像或病理图像,实现对分子标志物的无创预测,为分子分型提供了高效路径,其中CNN、ViT及两者联合模型的应用最为关键。

       CNN在胶质瘤分子分型中表现突出,尤其擅长通过多序列影像融合捕捉与分子特征相关的细微影像模式。在IDH突变及1p/19q共缺失预测中,CNN表现优异。CHOI等[39]整合3个中心1166例Ⅱ~Ⅳ级胶质瘤患者的多序列MRI(T1增强、T2、FLAIR),构建融合2D与3D特征的CNN模型,内部及外部验证集IDH突变预测AUC分别达0.96、0.94和0.86,验证了多中心数据的稳定性。CLUCERU等[40]进一步纳入弥散加权成像(diffusion-weighted imaging, DWI),构建同时预测IDH突变与1p/19q共缺失的3分类模型,总体准确率显著优于分层预测法及单一解剖成像模型,证实多序列融合可提升精确度。

       针对特异性分子标志物,CNN的预测价值同样显著。端粒酶逆转录酶启动子(telomerase reverse transcriptase promoter, TERTp)突变作为GBM的独立预后标志物,SACLI-BILMEZ等[41]基于225例患者的质子磁共振波谱数据,设计1D-CNN架构,无需手动提取特征即可准确识别IDH与TERTp突变亚组,为代谢组学驱动分型提供新思路。组蛋白H3第27位赖氨酸至甲硫氨酸突变(histone H3 lysine 27-to-methionine mutation, H3K27M)突变是弥漫中线胶质瘤不良预后标志物,YUAN等[42]整合90例患者正电子发射断层扫描(positron emission tomography, PET)数据构建AT-CNN模型,内部交叉验证中蛋氨酸与FET的预测准确率分别达91.18%、82.76%,AUC为0.9343和0.8619。磷酸酶与张力蛋白同源物(phosphatase and tensin homolog, PTEN)突变与胶质瘤侵袭性相关,CHEN等[43]基于244例患者术前MRI,发现影像组学、CNN模型及二者集成模型中,集成模型预测PTEN状态性能最优(准确率=86%,AUC=0.91)。O6-甲基鸟嘌呤-DNA甲基转移酶(O6-methylguanine-DNA methyltransferase, MGMT)启动子甲基化可预测烷化剂化疗敏感性及评估预后,KOSKA等[44]采用多参数MRI训练CNN分类器自动预测GBM患者MGMT甲基化状态,T1增强与FLAIR序列组合的预测准确率达88%。在儿科低级别胶质瘤(pediatric low-grade glioma, pLGG)中,B-Raf原癌基因(B-Raf proto-oncogene, BRAF)突变,尤其是其V600E(缬氨酸600至谷氨酸突变)位点的CNN预测研究有重要临床意义,KUDUS等[45]发现CNN与放射组学特征联合模型(AUC=0.824)性能优于单一方法,TAK等[46]采用预训练ResNet-50模型,在有限数据下实现BRAF不同类型突变的精准分类(AUC=0.820~0.875)。然而,该方面研究多基于影像组学而病理组学应用不足,可能与单一病理切片难以反映肿瘤整体分子特征,而影像可覆盖全肿瘤体积。

       对于需要全局建模与多尺度整合的任务,ViT能够建立图像全局的依赖关系,擅长挖掘长程关联。在影像组学中,XU等[47]针对188例Ⅱ~Ⅳ级胶质瘤患者,构建包含三个独立网络的ViT模型,同步预测IDH、MGMT、Ki67、P53四种分子表达,其中整合双序列全局关联的TU-net性能最优,四项分子表达预测的准确率达93.7%~96.9%,AUC达97.6%~98.4%,且显著优于CNN模型。NIU等[48]基于CrossFormer开发堆叠模型预测IDH野生型伴TERTp突变的胶质瘤,结果显示多通道2.5D模型优于2D模型和影像组学模型,堆叠模型性能最佳,AUC达0.855~0.904,体现了2.5D模型融合多影像空间信息以提升预测准确性的优势,也彰显了ViT对多尺度影像特征的整合能力。ViT在病理图像分析中展现出更独特的优势,LI等[15]开发的端到端高度可解释模型ViT-WSI,不仅实现8种原发性脑肿瘤分类(平均AUC=0.9408)及IDH1突变预测(AUC=0.960),其可解释性设计还将模型决策与细胞形态、血管结构等具体病理特征关联,为病理与分子关联分析提供了直观工具。这说明,在需要理解全切片组织结构、挖掘跨区域关联或同步解析多尺度特征的复杂任务中,ViT的全局建模能力具有不可替代的价值。

       CNN与ViT的联合模型通过跨任务融合实现“肿瘤区域定位-分子特征预测”的端到端学习,整合两者优势,进一步提升性能。CHENG等[49]采用混合CNN-Transformer编码器,串联分割解码器与基因分型分类器,在胶质瘤分割与IDH突变预测中,性能优于单任务模型及现有先进方法。ZHAO等[50]基于WSI开发聚类的CNN与ViT混合模型,检测IDH突变状态的验证集AUC=0.973、外部测试集AUC=0.953,在组织学特征相似的难区分亚组中仍保持高准确性(AUC=0.850~0.985),显著优于纯CNN、纯ViT及经典多实例学习模型。

       因此,胶质瘤无创分子分型的模型选择高度依赖具体场景:基于多序列影像的预测,技术成熟的CNN是稳健首选;面对整张病理切片分析或多标志物同步预测时,ViT系列模型在捕捉全局关联上更具优势;而对于需兼顾肿瘤定位与分子特征的端到端复杂任务,CNN-ViT融合架构已成为实现性能突破的主流趋势。

5 CNN与ViT在胶质瘤的预后评估的应用

       胶质瘤患者预后受多种因素影响,个体差异显著。准确预测不同患者的预后风险,对于针对性选择治疗强度与策略至关重要。例如,低级别胶质瘤患者预后较好,可优化手术范围或辅助治疗策略;高风险患者则优先推荐联合放化疗或新型靶向治疗,避免过度或不足治疗[1]。深度学习技术,尤其是CNN、ViT及其联合模型,为胶质瘤预后评估带来了新的突破。

       CNN凭借其强大的多模态融合与非线性建模能力,在预后评估中应用广泛且成熟。在生存时间预测方面,CNN展现出对多模态数据的深度挖掘能力。LYU等[51]设计的低复杂度模型SurvNet,用于GBM患者生存时间分类,增加MRI输入模态后模型性能提升,证实多模态影像对生存预测的增益。LEE等[52]训练3D SE-ResNeXt模型预测弥漫性胶质瘤患者总生存期,发现全脑形态学特征有独立预后价值,整合多维度信息后性能最优。在基因组数据建模中,YIN等[53]开发的CNN-Cox生存分析模型,解决了高通量测序数据过拟合问题,为基因组数据驱动的预后预测提供高效方案。在胶质瘤复发进展预测中,CNN也实现了从术中检测到远处转移的精准评估。HOLLON等[54]利用术中刺激拉曼组织学成像训练CNN来检测活的复发性胶质瘤,在验证集上实现95.8%的诊断准确率,为术中快速判断肿瘤活性提供实时工具。GUO等[55]构建以ResNet为骨干的端到端分类框架,融合代谢影像与结构MRI识别肿瘤进展与反应,其影像水平分类AUC从0.88提升至0.90(P<0.001),证实代谢影像的补充价值。ZHAO等[56]设计多模态专用CNN卷积模块[Conv-D处理弥散张量成像(diffusion tensor imaging, DTI)、Conv-P处理PET],提升了远处复发预测能力,弗雷歇起始距离达28.93,骰子相似系数达0.9113,为放疗规划提供了关键指导。

       模型可解释性是临床转化的关键。OH等[57]提出了PathCNN,通过构建“通路图像”整合多组学数据,构建了可解释的CNN模型。其可解释性通过Grad-CAM生成类别激活映射定位关键通路区域,结合统计方法识别出与生存显著相关的关键通路,证实CNN可实现多组学数据的可解释分析并为临床决策提供理论依据。这些研究表明,在需要整合影像、基因组、临床参数等多源异构数据,并从中提取综合性预后特征的场景中,CNN因其结构灵活、技术成熟而成为当前的主流选择。

       ViT则通过其全局注意力机制,为预后评估提供了新的视角,尤其擅长处理具有空间长程依赖或跨尺度关联的任务。在GBM患者放疗后假性进展与真性进展的区分这一临床决策关键挑战中,且标注数据稀缺限制模型开发的情况下,GOMAA等[58]提出自监督ViT方案,采用多序列MRI图像结合临床参数与放疗计划信息,利用无标签数据进行预训练,在两个中心的数据集中,模型区分假性进展与真性进展的AUC达75.3%,性能优于现有方法。GUO等[59]提出跨放大倍数注意力模型CroMAM,通过Swin Transformer与ViT结合处理多放大倍数WSI,实现胶质瘤基因状态与生存期的高效预测,其可解释性依托ViT实现,定性以注意力热图展示跨尺度特征关注变化,定量验证交叉注意力显著增强跨尺度特征融合,验证了跨放大倍数特征融合的有效性。这说明,对于需要理解病灶整体空间构型、微环境分布等全局信息的预后任务(如基于WSI的生存分析),ViT的全局建模能力展现出独特优势。

       综上,当前胶质瘤预后评估仍以CNN及其多模态融合策略为主流,尤其适用于整合异构临床数据,而在处理WSI等强空间上下文数据时,ViT正逐步显现其技术潜力。尽管CNN与ViT的融合模型在该领域直接研究尚少,但两者的联合框架仍是未来提升预后模型精确度与临床可解释性的关键方向。

6 总结与展望

       本文系统综述了CNN与ViT在胶质瘤智能诊疗中的研究进展。综述表明,CNN与ViT并非简单的替代关系,而是因其原理差异构成了互补的技术体系,二者的发展与融合共同推动着研究范式的演进。在模型选择上,CNN凭借其局部归纳偏置,在依赖精细局部特征的任务(如肿瘤边界分割、基于影像纹理的分级)中表现稳健,且对数据规模相对宽容。ViT则通过自注意力机制,在处理需要全局上下文建模的任务(如全切片病理图像分析、多模态关联、长程依赖建模)中展现出独特优势。面对胶质瘤异质性高、边界模糊、多模态数据融合等核心临床挑战,CNN与ViT的融合策略通过架构创新实现了优势互补,不仅在检测分割、病理分级、分子分型及预后评估等多项任务中持续刷新性能纪录,其通过联合可视化构建的“局部-全局”可解释链条,也显著增强了模型的临床可信度。技术演进呈现出从单模态到多模态、从单尺度到多尺度、从单任务到多任务、从小样本到自监督学习的清晰趋势。

       未来展望:尽管成效显著,CNN与ViT在胶质瘤研究中的深入应用仍面临挑战,未来可从以下方向寻求突破。第一,推动融合架构的精准化与轻量化,探索动态特征路由、自适应注意力等高效混合机制,设计轻量级架构以平衡性能与效率,满足临床实时需求;第二,革新数据生态与学习范式,推动高质量、标准化多中心数据集的共建共享,发展自监督与弱监督学习,充分挖掘数据价值并降低对大规模标注数据的依赖;第三,深化可解释性与先验知识的融合,超越事后可视化,将医学先验知识以可微分方式嵌入模型设计,发展“内在可解释”模型,使AI决策逻辑与临床认知深度融合,提升临床信任度;第四,构建面向多组学的统一建模框架,无缝整合影像、病理、基因组等多模态数据,实现从“影像/病理智能”到“多组学融合智能”的跨越,支撑个体化精准诊疗。

[1]
LAPOINTE S, PERRY A, BUTOWSKI N A. Primary brain tumours in adults[J]. Lancet, 2018, 392(10145): 432-446. DOI: 10.1016/s0140-6736(18)30990-5.
[2]
SHOUSHTARI F K, ELAHI R, VALIZADEH G, et al. Current trends in glioma tumor segmentation: A survey of deep learning modules[J/OL]. Phys Med, 2025, 135: 104988 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/40460759/. DOI: 10.1016/j.ejmp.2025.104988.
[3]
GORE S, CHOUGULE T, JAGTAP J, et al. A review of radiomics and deep predictive modeling in glioma characterization[J]. Acad Radiol, 2021, 28(11): 1599-1621. DOI: 10.1016/j.acra.2020.06.016.
[4]
ALLEMAN K, KNECHT E, HUANG J, et al. Multimodal deep learning-based prognostication in glioma patients: A systematic review[J/OL]. Cancers (Basel), 2023, 15(2): 545 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/36672494/. DOI: 10.3390/cancers15020545.
[5]
CHEN C, MAT ISA N A, LIU X. A review of convolutional neural network based methods for medical image classification[J/OL]. Comput Biol Med, 2025, 185: 109507 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/39631108/. DOI: 10.1016/j.compbiomed.2024.109507.
[6]
ABURASS S, DORGHAM O, SHAQSI J AL, et al. Vision transformers in medical imaging: A comprehensive review of advancements and applications across multiple diseases[J/OL]. J Imaging Inform Med, 2025 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/40164818/. DOI: 10.1007/s10278-025-01481-y.
[7]
TAKAHASHI S, SAKAGUCHI Y, KOUNO N, et al. Comparison of vision transformers and convolutional neural networks in medical image analysis: A systematic review[J/OL]. J Med Syst, 2024, 48(1): 84 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/39264388/. DOI: 10.1007/s10916-024-02105-8.
[8]
XU H, XU Q, CONG F, et al. Vision transformers for computational histopathology[J]. IEEE Rev Biomed Eng, 2024, 17: 63-79. DOI: 10.1109/rbme.2023.3297604.
[9]
PAPANASTASIOU G, DIKAIOS N, HUANG J, et al. Is attention all you need in medical image analysis? A review[J]. IEEE J Biomed Health Inform, 2024, 28(3): 1398-1411. DOI: 10.1109/jbhi.2023.3348436.
[10]
FUKUSHIMA K. Neocognitron: A self organizing neural network model for a mechanism of pattern recognition unaffected by shift in position[J]. Biol Cybern, 1980, 36(4): 193-202. DOI: 10.1007/bf00344251.
[11]
YANG R, YU Y. Artificial convolutional neural network in object detection and semantic segmentation for medical imaging analysis[J/OL]. Front Oncol, 2021, 11: 638182 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/33768000/. DOI: 10.3389/fonc.2021.638182.
[12]
KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90. DOI: 10.1145/3065386.
[13]
ZHANG H, OGASAWARA K. Grad-cam-based explainable artificial intelligence related to medical text processing[J/OL]. Bioengineering (Basel), 2023, 10(9): 1070 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/37760173/. DOI: 10.3390/bioengineering10091070.
[14]
AL-HAMMURI K, GEBALI F, KANAN A, et al. Vision transformer architecture and applications in digital health: A tutorial and survey[J/OL]. Vis Comput Ind Biomed Art, 2023, 6(1): 14 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/37428360/. DOI: 10.1186/s42492-023-00140-9.
[15]
LI Z, CONG Y, CHEN X, et al. Vision transformer-based weakly supervised histopathological image analysis of primary brain tumors[J/OL]. iScience, 2023, 26(1): 105872 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/36647383/. DOI: 10.1016/j.isci.2022.105872.
[16]
LIU Z, LV Q, YANG Z, et al. Recent progress in transformer-based medical image analysis[J/OL]. Comput Biol Med, 2023, 164: 107268 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/37494821/. DOI: 10.1016/j.compbiomed.2023.107268.
[17]
CHENG Z, WU Y, LI Y, et al. A comprehensive review of explainable artificial intelligence (xai) in computer vision[J/OL]. Sensors (Basel), 2025, 25(13): 4166 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/40648421/. DOI: 10.3390/s25134166.
[18]
SINGH Y, HATHAWAY Q A, KEISHING V, et al. Beyond post hoc explanations: A comprehensive framework for accountable ai in medical imaging through transparency, interpretability, and explainability[J/OL]. Bioengineering (Basel), 2025, 12(8): 879 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/40868392/. DOI: 10.3390/bioengineering12080879.
[19]
GUPTA R K, BHARTI S, KUNHARE N, et al. Brain tumor detection and classification using cycle generative adversarial networks[J]. Interdiscip Sci, 2022, 14(2): 485-502. DOI: 10.1007/s12539-022-00502-6.
[20]
DISCI R, GURCAN F, SOYLU A. Advanced brain tumor classification in mr images using transfer learning and pre-trained deep cnn models[J/OL]. Cancers (Basel), 2025, 17(1): 121 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/39796749/. DOI: 10.3390/cancers17010121.
[21]
RAHIMPOUR M, BOELLAARD R, JENTJENS S, et al. A multi-label cnn model for the automatic detection and segmentation of gliomas using [(18)f]fet pet imaging[J]. Eur J Nucl Med Mol Imaging, 2023, 50(8): 2441-2452. DOI: 10.1007/s00259-023-06193-5.
[22]
TRIPATHI P C, BAG S. An attention-guided cnn framework for segmentation and grading of glioma using 3d mri scans[J]. IEEE/ACM Trans Comput Biol Bioinform, 2023, 20(3): 1890-1904. DOI: 10.1109/tcbb.2022.3220902.
[23]
RUDIE J D, CALABRESE E, SALUJA R, et al. Longitudinal assessment of posttreatment diffuse glioma tissue volumes with three-dimensional convolutional neural networks[J/OL]. Radiol Artif Intell, 2022, 4(5): e210243 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/36204543/. DOI: 10.1148/ryai.210243.
[24]
TUMMALA S, KADRY S, BUKHARI S A C, et al. Classification of brain tumor from magnetic resonance imaging using vision transformers ensembling[J]. Curr Oncol, 2022, 29(10): 7498-7511. DOI: 10.3390/curroncol29100590.
[25]
REDDY C K K, REDDY P A, JANAPATI H, et al. A fine-tuned vision transformer based enhanced multi-class brain tumor classification using mri scan imagery[J/OL]. Front Oncol, 2024, 14: 1400341 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/39091923/. DOI: 10.3389/fonc.2024.1400341.
[26]
WANG S, WU J, CHEN M, et al. Balanced transformer: Efficient classification of glioblastoma and primary central nervous system lymphoma[J/OL]. Phys Med Biol, 2024, 69(4) [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/38232389/. DOI: 10.1088/1361-6560/ad1f88.
[27]
ASIRI A A, SHAF A, ALI T, et al. Advancing brain tumor detection: Harnessing the swin transformer's power for accurate classification and performance analysis[J/OL]. PeerJ Comput Sci, 2024, 10: e1867 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/38435590/. DOI: 10.7717/peerj-cs.1867.
[28]
XIONG D, REN X, HUANG W, et al. Noninvasive classification of glioma subtypes using multiparametric mri to improve deep learning[J/OL]. Diagnostics (Basel), 2022, 12(12): 3063 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/36553070/. DOI: 10.3390/diagnostics12123063.
[29]
LI R, LIAO Y, HUANG Y, et al. Deepglioseg: Advanced glioma mri data segmentation with integrated local-global representation architecture[J/OL]. Front Oncol, 2025, 15: 1449911 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/39968077/. DOI: 10.3389/fonc.2025.1449911.
[30]
ZEINELDIN R A, KARAR M E, ELSHAER Z, et al. Explainable hybrid vision transformers and convolutional network for multimodal glioma segmentation in brain mri[J/OL]. Sci Rep, 2024, 14(1): 3713 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/38355678/. DOI: 10.1038/s41598-024-54186-7.
[31]
ZHUANG Y, LIU H, FANG W, et al. A 3d hierarchical cross-modality interaction network using transformers and convolutions for brain glioma segmentation in mr images[J]. Med Phys, 2024, 51(11): 8371-8389. DOI: 10.1002/mp.17354.
[32]
ZHUGE Y, NING H, MATHEN P, et al. Automated glioma grading on conventional mri images using deep convolutional neural networks[J]. Med Phys, 2020, 47(7): 3044-3053. DOI: 10.1002/mp.14168.
[33]
XU C, PENG Y, ZHU W, et al. An automated approach for predicting glioma grade and survival of lgg patients using cnn and radiomics[J/OL]. Front Oncol, 2022, 12: 969907 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/36033433/. DOI: 10.3389/fonc.2022.969907.
[34]
FASIHI SHIREHJINI O, BABAPOUR MOFRAD F, SHAHMOHAMMADI M, et al. Grading of gliomas using transfer learning on mri images[J]. Magma, 2023, 36(1): 43-53. DOI: 10.1007/s10334-022-01046-y.
[35]
MUNQUAD S, DAS A B. Deepautoglioma: A deep learning autoencoder-based multi-omics data integration and classification tools for glioma subtyping[J/OL]. BioData Min, 2023, 16(1): 32 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/37968655/. DOI: 10.1186/s13040-023-00349-7.
[36]
SHIRAE S, DEBSARKAR S S, KAWANAKA H, et al. Multimodal ensemble fusion deep learning using histopathological images and clinical data for glioma subtype classification[J]. IEEE Access, 2025, 13: 57780-57797. DOI: 10.1109/access.2025.3556713.
[37]
ELAZAB N, KHALIFA F, ALLAH W GAB, et al. Histopathological-based brain tumor grading using 2d-3d multi-modal cnn-transformer combined with stacking classifiers[J/OL]. Sci Rep, 2025, 15(1): 27764 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/40739310/. DOI: 10.1038/s41598-025-11754-9.
[38]
LOUIS D N, PERRY A, WESSELING P, et al. The 2021 who classification of tumors of the central nervous system: A summary[J]. Neuro Oncol, 2021, 23(8): 1231-1251. DOI: 10.1093/neuonc/noab106.
[39]
CHOI Y S, BAE S, CHANG J H, et al. Fully automated hybrid approach to predict the idh mutation status of gliomas via deep learning and radiomics[J]. Neuro Oncol, 2021, 23(2): 304-313. DOI: 10.1093/neuonc/noaa177.
[40]
CLUCERU J, INTERIAN Y, PHILLIPS J J, et al. Improving the noninvasive classification of glioma genetic subtype with deep learning and diffusion-weighted imaging[J]. Neuro Oncol, 2022, 24(4): 639-652. DOI: 10.1093/neuonc/noab238.
[41]
SACLI-BILMEZ B, BAS A, ERŞEN DANYELI A, et al. Detecting idh and tertp mutations in diffuse gliomas using (1)H-MRS with attention deep-shallow networks[J/OL]. Comput Biol Med, 2025, 186: 109736 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/39874812/. DOI: 10.1016/j.compbiomed.2025.109736.
[42]
YUAN Y, LI G, MEI S, et al. Deep mutual learning on hybrid amino acid pet predicts h3k27m mutations in midline gliomas[J/OL]. NPJ Precis Oncol, 2024, 8(1): 274 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/39587279/. DOI: 10.1038/s41698-024-00760-1.
[43]
CHEN H, LIN F, ZHANG J, et al. Deep learning radiomics to predict pten mutation status from magnetic resonance imaging in patients with glioma[J/OL]. Front Oncol, 2021, 11: 734433 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/34671557/. DOI: 10.3389/fonc.2021.734433.
[44]
KOSKA İ, KOSKA Ç. Deep learning classification of mgmt status of glioblastomas using multiparametric mri with a novel domain knowledge augmented mask fusion approach[J/OL]. Sci Rep, 2025, 15(1): 3273 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/39863759/. DOI: 10.1038/s41598-025-87803-0.
[45]
KUDUS K, WAGNER M W, NAMDAR K, et al. Beyond hand-crafted features for pretherapeutic molecular status identification of pediatric low-grade gliomas[J/OL]. Sci Rep, 2024, 14(1): 19102 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/39154039/. DOI: 10.1038/s41598-024-69870-x.
[46]
TAK D, YE Z, ZAPAISCHYKOVA A, et al. Noninvasive molecular subtyping of pediatric low-grade glioma with self-supervised transfer learning[J/OL]. Radiol Artif Intell, 2024, 6(3): e230333 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/38446044/. DOI: 10.1148/ryai.230333.
[47]
XU Q, XU Q Q, SHI N, et al. A multitask classification framework based on vision transformer for predicting molecular expressions of glioma[J/OL]. Eur J Radiol, 2022, 157: 110560 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/36327857/. DOI: 10.1016/j.ejrad.2022.110560.
[48]
NIU W, YAN J, HAO M, et al. Mri transformer deep learning and radiomics for predicting idh wild type tert promoter mutant gliomas[J/OL]. NPJ Precis Oncol, 2025, 9(1): 89 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/40148588/. DOI: 10.1038/s41698-025-00884-y.
[49]
CHENG J, LIU J, KUANG H, et al. A fully automated multimodal mri-based multi-task learning for glioma segmentation and idh genotyping[J]. IEEE Trans Med Imaging, 2022, 41(6): 1520-1532. DOI: 10.1109/tmi.2022.3142321.
[50]
ZHAO Y, WANG W, JI Y, et al. Computational pathology for prediction of isocitrate dehydrogenase gene mutation from whole slide images in adult patients with diffuse glioma[J]. Am J Pathol, 2024, 194(5): 747-758. DOI: 10.1016/j.ajpath.2024.01.009.
[51]
LYU Q, PARRENO-CENTENO M, PAPA J P, et al. Survnet: A low-complexity convolutional neural network for survival time classification of patients with glioblastoma[J/OL]. Heliyon, 2024, 10(12): e32870 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/38988550/. DOI: 10.1016/j.heliyon.2024.e32870.
[52]
LEE J O, AHN S S, CHOI K S, et al. Added prognostic value of 3d deep learning-derived features from preoperative mri for adult-type diffuse gliomas[J]. Neuro Oncol, 2024, 26(3): 571-580. DOI: 10.1093/neuonc/noad202.
[53]
YIN Q, CHEN W, ZHANG C, et al. A convolutional neural network model for survival prediction based on prognosis-related cascaded wx feature selection[J]. Lab Invest, 2022, 102(10): 1064-1074. DOI: 10.1038/s41374-022-00801-y.
[54]
HOLLON T C, PANDIAN B, URIAS E, et al. Rapid, label-free detection of diffuse glioma recurrence using intraoperative stimulated raman histology and deep neural networks[J/OL]. Neuro Oncol, 2021, 23(1): 144-155. DOI: 10.1093/neuonc/noaa162.
[55]
GUO P, UNBERATH M, HEO H Y, et al. Learning-based analysis of amide proton transfer-weighted mri to identify true progression in glioma patients[J/OL]. Neuroimage Clin, 2022, 35: 103121 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/35905666/. DOI: 10.1016/j.nicl.2022.103121.
[56]
ZHAO C, CHEN M, WEN X, et al. Three-step-guided visual prediction of glioblastoma recurrence from multimodality images[J/OL]. Comput Med Imaging Graph, 2025, 124: 102585 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/40532633/. DOI: 10.1016/j.compmedimag.2025.102585.
[57]
OH J H, CHOI W, KO E, et al. Pathcnn: Interpretable convolutional neural networks for survival prediction and pathway analysis applied to glioblastoma[J]. Bioinformatics, 2021, 37(Suppl_1): i443-i450. DOI: 10.1093/bioinformatics/btab285.
[58]
GOMAA A, HUANG Y, STEPHAN P, et al. A self-supervised multimodal deep learning approach to differentiate post-radiotherapy progression from pseudoprogression in glioblastoma[J/OL]. Sci Rep, 2025, 15(1): 17133 [2025-08-26]. https://pubmed.ncbi.nlm.nih.gov/40382400/. DOI: 10.1038/s41598-025-02026-7.
[59]
GUO J, XU P, WU Y, et al. Cromam: A cross-magnification attention feature fusion model for predicting genetic status and survival of gliomas using histological images[J]. IEEE J Biomed Health Inform, 2024, 28(12): 7345-7356. DOI: 10.1109/jbhi.2024.3431471.

上一篇 扩散张量成像联合人工智能在脑小血管病中的应用进展
下一篇 多模态MRI影像组学预测脑胶质瘤分子分型的研究进展
  
诚聘英才 | 广告合作 | 免责声明 | 版权声明
联系电话:010-67113815
京ICP备19028836号-2