分享:
分享到微信朋友圈
X
综述
Transformer在脑肿瘤MRI图像分割中的研究进展
陈雷 李光宇 杨锋 蔡婧欣 高梦谣

本文引用格式:陈雷, 李光宇, 杨锋, 等. Transformer在脑肿瘤MRI图像分割中的研究进展[J]. 磁共振成像, 2025, 16(8): 181-187, 200. DOI:10.12015/issn.1674-8034.2025.08.027.


[摘要] 脑肿瘤精准分割至关重要,但传统卷积神经网络因局部感受野限制难以建模磁共振成像(magnetic resonance imaging, MRI)中的长距离依赖,影响对异质性高、边界模糊肿瘤的分割精度。Transformer凭借全局自注意力机制为此提供了新思路。本文综述了Transformer在脑肿瘤MRI分割中的进展,重点分析了Transformer模型在层次化注意力、编解码结构、残差连接等关键技术上的改进,探讨了多模态融合、模态缺失应对、轻量化设计及注意力机制本身的创新策略;尽管Transformer显著提升了精度,仍面临数据稀缺、模态缺失鲁棒性、类别不平衡、计算成本高和可解释性不足等挑战,未来需聚焦数据高效利用、模态弹性建模、拓扑感知优化、轻量化与可解释性增强等方向。本文系统梳理了Transfomer在脑肿瘤MRI图像分割领域的研究现状,总结了目前研究的局限性并指出未来的研究方向,本文旨在为深入理解其技术演进、核心挑战与发展方向提供系统性参考。
[Abstract] Accurate segmentation of brain tumors is crucial, but traditional convolutional neural networks are difficult to model long-range dependencies in magnetic resonance imaging (MRI) due to local receptive field limitations, which affects the segmentation accuracy of tumors with high heterogeneity and blurred boundaries. Transformer provides a new approach for this through its global self-attention mechanism. This article reviews the progress of Transformer in brain tumor MRI segmentation, focusing on analyzing the improvements of Transformer models in key technologies such as hierarchical attention, encoder-decoder structures, and residual connections, and exploring innovative strategies for multimodal fusion, handling missing modalities, lightweight design, and the attention mechanism itself; although Transformers have significantly improved accuracy, they still face challenges such as data scarcity, robustness to modal loss, class imbalance, high computational costs, and insufficient interpretability, necessitating future focus on efficient data utilization, modal elasticity modeling, topology-aware optimization, lightweight and interpretability enhancement, and other directions. This article systematically reviews the current research status of Transformer in the field of brain tumor MRI image segmentation, summarizes the limitations of current research, and points out the future research directions. The aim is to provide a systematic reference for a deeper understanding of its technological evolution, core challenges, and development trends.
[关键词] Transformer模型;脑肿瘤分割;磁共振成像;多模态;注意力机制;轻量化设计
[Keywords] Transformer model;segmentation of brain tumors;magnetic resonance imaging;multimodal;attention mechanism;lightweight design

陈雷 1*   李光宇 2   杨锋 1   蔡婧欣 2   高梦谣 2  

1 山东中医药大学附属医院资产设备处,济南 250014

2 山东中医药大学医学信息工程学院,济南 250355

通信作者:陈雷,E-mail:szysbc@163.com

作者贡献声明:陈雷、杨锋设计了本研究的方案,对稿件重要内容进行了修改;李光宇起草和撰写稿件,获取、分析和解释本研究的数据;蔡婧欣、高梦谣获取、分析和解释本研究的数据,对稿件重要内容进行了修改;全体作者都同意发表最后的修改稿,同意对本研究的所有方面负责,确保本研究的准确性和诚信。


收稿日期:2025-06-20
接受日期:2025-08-05
中图分类号:R445.2  R739.41 
文献标识码:A
DOI: 10.12015/issn.1674-8034.2025.08.027
本文引用格式:陈雷, 李光宇, 杨锋, 等. Transformer在脑肿瘤MRI图像分割中的研究进展[J]. 磁共振成像, 2025, 16(8): 181-187, 200. DOI:10.12015/issn.1674-8034.2025.08.027.

0 引言

       脑肿瘤的精准分割是医学影像分析领域的重要任务,其直接关系到临床诊断、手术规划及预后评估的准确性。磁共振成像(magnetic resonance imaging, MRI)凭借其高软组织分辨率优势,成为脑肿瘤检测的主要影像模态[1]。然而,由于肿瘤形态的异质性、边界模糊性以及正常组织与病灶区域对比度低等问题,传统基于卷积神经网络的分割方法往往难以有效建模长距离依赖关系,导致复杂场景下分割精度受限[2]

       近年来,Transformer模型凭借其全局自注意力机制,在自然语言处理与计算机视觉领域展现出突破性性能。与卷积神经网络(convolutional neural network, CNN)的局部归纳偏置不同,Transformer能够通过自注意力动态捕捉图像中的全局上下文信息,这一特性为解决医学图像中多尺度、多模态特征融合问题提供了新思路[3]。2020年,Vision Transformer(VIT)[4]首次将纯Transformer架构引入图像分类任务,随后研究者开始探索其在医学图像分割中的潜力。例如,Swin-UNet[5]通过引入层次化Transformer模块和滑动窗口机制,显著提升了脑肿瘤MRI图像分割中病灶区域的边缘细节还原能力;TransBTS等模型则结合CNN的局部特征提取能力与Transformer的全局建模优势,在BraTS等公开数据集上取得了优于传统U-Net的性能[6]。尽管如此,基于Transformer的脑肿瘤MRI图像分割仍面临诸多挑战:首先,医学影像数据量有限,而Transformer对大规模训练数据的依赖性可能加剧小样本场景下的过拟合风险[7];其次,多模态MRI数据的异质性特征融合机制仍需优化[8];此外,模型的计算复杂度与临床实时性需求之间的矛盾尚未完全解决[9]。鉴于Transformer在解决脑肿瘤MRI分割面临的标注稀缺、多尺度肿瘤精准分割及模型计算效率等关键挑战上的潜力,亟需对其在该领域的应用进展、方法创新及瓶颈问题进行系统综述。

       虽然已有综述探讨Transformer在医学图像分割中的应用[10, 11],但它们在时效性和任务聚焦深度上存在局限:一方面,未能充分纳入2023年以来在高效架构和数据利用策略上的最新突破;另一方面,缺乏对脑肿瘤MRI分割这一特定任务中核心挑战的深入剖析及其针对性解决方案的系统评述,对计算效率、鲁棒性和临床转化可行性的讨论也显不足。

       因此,本文对Transformer在脑肿瘤MRI分割中的最新进展进行系统综述,深度聚焦脑肿瘤MRI分割任务,追踪评述针对其核心挑战的最新高效模型与数据利用方法;并着重分析当前存在的计算效率、数据依赖、临床部署等技术瓶颈及未来方向,以期为构建鲁棒、高效且可解释的脑肿瘤MRI图像分割模型提供理论参考。

1 Transformer的概述及发展

       Transformer是一种强大的深度学习模型,以其注意力机制有效捕捉序列元素间的远程依赖关系[12]。Transformer最初用于自然语言处理(natural language processing, NLP),后被引入视觉领域:ViT将图像划分为块序列进行处理,突破了CNN的局部感受野限制[4]。为提升效率并适应密集预测任务,Swin Transformer引入了层次化架构和移位窗口机制,在窗口内计算高效自注意力并通过位移实现跨窗口交互[13]

       在医学图像分析,特别是脑肿瘤MRI图像分割领域,Transformer展现出巨大潜力。针对三维医学图像的特点,nnFormer设计了嵌套式自注意力,结合局部块注意力与全局下采样注意力,同步捕获细节与上下文,并通过跨阶段特征聚合优化多尺度融合[14]。为适配分割任务,Swin-Unet构建了纯Transformer的对称编解码器,编码器提取语义特征,解码器结合跳跃连接恢复空间细节,提升边界保持与小目标识别能力[5]

       Transformer架构通过其强大的全局建模能力、灵活的多尺度特征融合机制以及对三维体积数据的适应性,为解决脑肿瘤MRI图像分割的异质性纹理、不规则形态、微小病灶、边界模糊等关键问题提供了强大的基础框架。尤其在脑肿瘤MRI图像分割任务中,这类模型展现出独特优势:nnFormer通过嵌套式三维注意力精准捕捉脑肿瘤的异质性纹理与不规则形态,解决传统方法对微小病灶漏分割、肿瘤边界模糊的难题;Swin-Unet则凭借全局上下文建模能力,在复杂脑部MRI图像中实现肿瘤核心、水肿区域和增强边缘的像素级区分,为临床手术规划提供高精度支持。这些进展不仅推动了视觉任务性能的边界,更通过跨模态医学数据适配性(如多序列MRI融合)与可解释性增强(注意力图可视化病灶定位),为Transformer在神经影像分析中的临床应用奠定了基础。未来,结合动态稀疏注意力与领域自适应预训练,有望进一步突破脑肿瘤MRI图像分割在实时性与泛化性上的瓶颈。

2 模型融合在脑肿瘤MRI图像分割中的应用进展

       近年来,基于Transformer与CNN结合的混合模型在脑肿瘤MRI图像分割领域取得了显著进展。这些方法通过融合Transformer的全局上下文建模能力与CNN的局部特征提取优势,有效解决了传统方法在复杂肿瘤边界、多模态数据融合及长距离依赖建模上的不足[15]

2.1 混合架构的演进

       研究初期,WANG等[6]提出的TransBTS和HATAMIZADEH等[16]提出的Swin UNETR等模型,通过分阶段融合3D CNN与Transformer或采用分层注意力机制,初步实现了全局与局部特征的协同建模。然而,这类模型普遍面临计算复杂度高和参数量大的问题。为提升脑肿瘤MRI图像分割效率,后续工作进行了针对性优化:LI等[17]提出的DenseTrans和戴昂等[18]提出的改进版TransBTS,通过引入深度可分离卷积和大核分解策略,显著降低了脑肿瘤MRI图像分割计算成本;而LI等[19]提出的TransBTSV2则利用可变形卷积动态适应肿瘤形态,在模型轻量化和分割精度之间取得了更好的平衡。

2.2 多模态融合策略

       面对脑肿瘤MRI图像分割中多模态数据带来的核心挑战,研究者们提出了多种创新解决方案以提升模型适应性。针对模态缺失问题,KANG等[20]提出的MCTSeg模型采用了特征蒸馏技术,通过知识迁移机制有效传递完整模态的信息,缓解了脑肿瘤MRI图像分割中部分模态缺失带来的性能下降。为了增强不同模态间的有效交互,LEI等[21]则创新性地引入了临床知识引导的分组策略,其网络模型通过分组机制强化了具有临床相关性的模态特征融合。在应对脑肿瘤MRI图像数据稀缺挑战方面,LYU等[22]提出的MWG-UNet++模型另辟蹊径,利用Wasserstein生成对抗网络生成高质量合成数据,有效扩充了训练样本集,逐步提升了模型对复杂多变数据的泛化能力。在脑肿瘤MRI图像分割模型架构细节优化层面,研究者们着重提升关键区域的分割精度并减少信息损失。例如,RASOOL等[23]提出的 TransResUNet模型,巧妙地将Transformer的多头自注意力机制与残差结构相结合,显著强化了对脑肿瘤MRI图像分割中肿瘤核心等关键区域的分割能力。与此同时,罗康等[24]提出的LFC-UNETR模型,则设计了密集连接的多头注意力并行结构,有效捕捉长程依赖关系并减少了特征传递过程中的信息丢失,进一步提升了分割的精细度。

2.3 对抗学习与残差结构优化

       在对抗学习驱动的医学图像分割领域,研究者们提出了多种创新模型以提升脑肿瘤MRI图像分割精度与鲁棒性。其中,华楷文等[25]提出的融合双重对抗学习的CNN-Transformer模型,通过引入判别器进行特征对齐并结合虚拟对抗训练,有效增强了模型对脑肿瘤MRI图像输入扰动的鲁棒性。与此同时,MWG-UNet++模型则侧重于利用生成对抗网络的对抗机制,优化了脑肿瘤MRI图像边界的生成质量。而在脑肿瘤MRI图像分割网络结构设计层面,针对深层网络训练中普遍存在的信息衰减问题,研究者们采用了残差结构改进策略。例如,王浩宇等[26]提出的基于TransUnet框架的脑肿瘤MRI图像分割方法,正是通过精心设计的跳跃连接与模块化残差单元,显著缓解了梯度消失与特征信息损失,提升了脑肿瘤MRI图像分割性能。

       总体来看,跳跃连接与残差单元协同显著提升了脑肿瘤MRI图像分割精度,在复杂边界和多模态数据场景例如MRI多序列融合下表现尤为突出;轻量化设计策略如深度可分离卷积与大核分解有效降低了脑肿瘤MRI图像分割的计算成本,而对抗学习以及生成对抗网络技术,例如WGAN,则增强了模型对脑肿瘤MRI图像分割中数据稀缺与噪声的鲁棒性。然而,其仍面临计算复杂度较高的问题,特别是Transformer的自注意力机制部分,同时存在泛化能力不足的挑战,表现为对多中心脑肿瘤MRI图像数据适应性有限,以及可解释性欠缺的问题,黑箱决策影响了临床信任。未来脑肿瘤MRI图像分割研究需聚焦于动态稀疏注意力机制以减少冗余计算、进行跨模态扩展融合CT或PET等其他影像、采用自动化架构搜索优化混合比例、并增强可解释性例如通过类激活图可视化等方法,同时结合半监督学习与域适应技术,以推动模型在临床实时应用与精准诊疗中的落地。

3 注意力机制在脑肿瘤MRI图像分割中的创新

       注意力机制通过动态分配权重聚焦关键信息,显著提升了脑肿瘤MRI图像分割模型对长距离依赖的捕捉能力和特征关联性理解。这一特性使Transformer突破了传统卷积神经网络在脑肿瘤MRI图像分割中的局部感受野限制,其自注意力机制能够建模像素间的全局长程依赖关系,并通过位置编码与多头注意力机制的协同设计,在保持图像空间结构敏感性的同时,自适应聚焦不同尺度的关键区域[27]。这种全局感知与动态聚焦的优势,为脑肿瘤MRI图像分割尤其是脑肿瘤边界模糊、跨区域关联复杂的分割任务提供了新的技术路径[28]

3.1 全局-局部注意力机制平衡

       基于Transformer的脑肿瘤MRI图像分割方法,其核心改进主要围绕注意力机制的创新与网络架构的融合展开。NGUYEN-TAT等[29]提出的3D UNet模型通过结合上下文变换器和双重注意力机制,双向捕捉局部与全局依赖关系以增强特征交互。然而,该方法对小肿瘤边界的精细分割仍存在挑战。ZHANG等[30]开发的AugTransU-Net模型在编码-解码器结构中嵌入了增强型变换器与配对注意力模块,显著强化了脑肿瘤MRI图像长程特征关联能力。但其较高的模型复杂度限制了其在脑肿瘤MRI图像分割实时应用的潜力。在平衡全局与局部信息方面,SHEDBALKAR等[31]提出的TEA-UNet模型采用了Swin Transformer与混合注意力机制,有效提升了脑肿瘤MRI图像多尺度特征融合的性能。尽管如此,其计算效率仍有待优化。而LI等[32]设计的Focal Cross Transformer模型则通过交叉窗口与焦点自注意力机制,专注于脑肿瘤MRI图像局部精细交互以降低计算成本。不过,该模型在复杂场景下的泛化适应能力仍需进一步验证。

3.2 注意力机制与多模态融合

       在应对脑肿瘤MRI图像分割中注意力机制与多模态融合的挑战方面,研究者们也提出了基于Transformer的创新方案。SHI等[33]开发的M2FTrans模型创新性地引入了模态掩蔽融合变换器机制。该机制的核心优势在于能够动态调整缺失模态的权重,从而显著提升脑肿瘤MRI图像分割模型在模态缺失情况下的鲁棒性。然而,这种复杂的融合机制也导致了模型结构的复杂化,可能对其在脑肿瘤MRI图像分割实际临床环境中的部署效率产生不利影响。另一方面,ZAKARIAH等[34]提出的Dual Vision Transformer-DSUNET模型则采用了双重注意力机制结合多模态特征融合的策略。这种方法旨在更有效地整合来自不同模态的互补信息,以提升分割性能。虽然其跨模态融合能力表现出色,但该模型在跨不同脑肿瘤MRI图像数据集时的泛化能力仍需更深入探索和验证,以确保其广泛的适用性。

3.3 轻量化注意力机制

       在脑肿瘤MRI图像分割领域,尤其是在资源受限的实际应用场景中,模型的轻量化与效率优化已成为关键研究方向。研究者们正积极尝试通过结构创新来平衡模型性能与实用性。其中,ANAYA-ISAZA等[35]提出的CrossTransUnet模型采用了可分离卷积与交叉注意力机制,这种设计思路有效降低了模型的复杂度,大幅减少了参数量,显著提升了计算效率。然而,其结构设计可能在处理脑肿瘤MRI图像中极端小目标的分割任务时性能受限,这或许是由于简化结构对细微特征的捕捉能力相对不足所致。

       相比之下,刘万军等[36]提出的融合CNN与Transformer的双分支模型则采取了不同的策略以提升脑肿瘤MRI图像小目标分割精度。该模型通过精心设计的空间与通道注意力机制,强化了局部特征与全局上下文信息之间的交互,从而显著提升了小肿瘤等精细结构的分割精度。但值得注意的是,这种双分支架构在带来性能增益的同时,也可能引入额外的计算开销和潜在的模型冗余,一定程度上增加了脑肿瘤MRI图像分割模型的复杂性和训练难度。

       当前基于Transformer的脑肿瘤MRI图像分割研究在注意力机制优化如全局-局部平衡焦点自注意力、多模态鲁棒性提升如模态掩蔽融合及轻量化设计如可分离卷积方面取得了显著进展,有效增强了特征交互、处理了缺失模态并降低了计算成本。然而,这些方法仍面临核心挑战:精度与效率难以兼得轻量化模型牺牲小目标精度高精度模型结构冗余、泛化能力不足复杂模型跨数据集表现不稳定以及结构复杂性带来的部署障碍计算开销大训练困难。通过表1对脑肿瘤MRI图像分割中三种注意力机制的特点进行了对比。未来研究需着力于开发动态高效的注意力架构以平衡精度与速度、设计泛化性更强的多模态融合方案、并探索端到端优化策略如架构搜索与模型蒸馏,从而推动高性能、高效率、高鲁棒性模型在临床实践中的广泛应用。

表1  脑肿瘤MRI图像分割中三种注意力机制的特点
Tab. 1  Characteristics of three attention mechanisms in brain tumor MRI image segmentation

4 多模态处理与缺失模态应对策略

       在脑肿瘤MRI图像分割任务中,多模态处理通过融合不同成像模态提供的互补解剖与病理信息,显著提升了对肿瘤核心、水肿及增强区域的分割精度,尤其能有效区分脑肿瘤中异质性高或边界模糊的病灶[37]。然而,实际临床应用中常面临模态缺失问题。为此,研究者提出了基于生成对抗网络的模态补全、跨模态注意力机制或自适应特征融合等策略,使脑肿瘤MRI图像分割模型在部分模态缺失时仍能保持鲁棒性,避免因数据不完整导致的性能骤降[38]。脑肿瘤MRI图像分割中多模态融合与模态缺失处理技术的结合,不仅增强了模型对复杂临床场景的适应性,降低了对数据采集完整性的严格要求,也推动了自动化分割系统在真实医疗环境中的实用性与可靠性[39]

       近年来,Transformer架构在脑肿瘤MRI图像分割领域的发展也紧密围绕多模态展开,聚焦于解决模态缺失、计算效率和特征融合等核心挑战。KANG等[20]率先提出结合CNN与Transformer的混合架构模型MCTSeg,通过多模态特征蒸馏和跨模态融合模块协同利用局部与全局信息,显著提升了脑肿瘤MRI图像分割模型在模态缺失情况下的鲁棒性,但其较高的计算复杂度限制了实际应用。为优化脑肿瘤MRI图像分割计算效率,ZHANG等[40]提出的IMS2Trans模型采用共享权重的Swin Transformer编码器,并结合特征蒸馏正则化和轻量化设计,成功将参数量降至4.47 M,大幅提升了计算效率,然而其在极端模态缺失场景下的适应性仍有待提升。为进一步增强对模态缺失的鲁棒性,SHI等[33]提出的MMFT模型引入了可学习的融合令牌和掩码自注意力机制,通过空间权重注意力和通道融合Transformer减少冗余信息干扰,在多个脑肿瘤MRI图像数据集上取得了最优分割效果,但其模型效率问题依然存在。

       在脑肿瘤MRI图像特征融合策略创新方面,LIN等[41]提出的CKD-TransBTS模型创新性地融入了临床知识,将多模态MRI分组处理,并设计双分支混合编码器与特征校准模块,有效降低了脑肿瘤图像分割结果的假阳性率,但其采用的复杂跨模态注意力机制在一定程度上削弱了模型的可解释性。另一项代表性工作是王彩莲等[42]提出的GCTF模型,该模型通过动态图卷积-Transformer融合模块和三维适配器捕获局部与全局依赖关系,并结合掩码机制处理缺失模态,在分割鲁棒性方面表现突出,但复杂的多模块结构也增加了脑肿瘤MRI图像分割模型的训练难度。

       针对脑肿瘤MRI图像分割纯Transformer架构的优化,YANG等[43]提出的F2Net模型通过灵活的多模态协同模块和跨模态特征增强模块,有效平衡了共享信息与模态特异性信息,在BraTS数据集上实现了高精度分割,但其性能对数据质量的高度依赖可能限制其在更广泛场景下的泛化能力。

       综上所述,当前脑肿瘤MRI图像分割研究通过混合架构设计、轻量化策略、临床知识驱动以及动态融合机制等多种途径,在多模态脑肿瘤图像分割的关键问题上取得了显著进展。然而,模型复杂度高、可解释性不足、小样本适应性弱以及在极端模态缺失场景下的性能稳定性等问题,仍是未来研究需要重点优化的方向。现有方法的优缺点相互补充,共同推动着该领域朝着高效、鲁棒且临床实用的目标不断迈进。

5 计算效率与轻量化设计进展

       计算效率与轻量化设计在脑肿瘤MRI图像分割任务中具有显著优势,主要体现在两个方面:首先,优化后的模型结构和降低的参数量使轻量化算法能在保证脑肿瘤MRI图像分割精度的前提下,大幅减少计算资源消耗与推理时间,从而适配移动设备或边缘端等资源受限的临床环境[44]。其次,其高效的计算能力支持医学影像的实时或近实时处理,有助于缩短诊断周期;同时,模型较小的存储与内存需求提升了部署灵活性,不仅降低了硬件能耗成本,也为该技术在基层医疗的广泛应用铺平了道路[45]

       针对Transformer模型在脑肿瘤MRI图像分割中的应用,提升其计算效率与实现轻量化已成为脑肿瘤图像分割领域的研究热点,相关创新主要从多个角度展开。以Swin Transformer的窗口化自注意力机制为代表:SHEDBALKAR等[31]提出的模型利用窗口化和移位窗口化机制,有效降低了全局计算复杂度,但模型本身的复杂度和数据依赖性问题仍有待解决;PEIRIS等[46]进一步将该机制扩展至3D体积数据,提出VT-W-MSA和VT-SW-MSA模块,并结合3D片区合并策略增强多尺度特征建模能力,然而其较高的硬件资源需求仍是瓶颈。这些工作为脑肿瘤MRI图像分割全局注意力计算提供了优化范例,但后续研究仍需着力于降低资源消耗和缓解数据依赖性。

       为了在脑肿瘤MRI图像分割效率与精度之间取得更优平衡,研究者们积极探索了混合架构与轻量化设计路线。例如,LI等[19]提出的TransBTSV2模型融合了3D CNN与宽度扩展的Transformer块,并引入可变形瓶颈模块以适应脑肿瘤形状变化,无须预训练即可实现高效分割,但其 3D 处理仍依赖较强的算力支撑;ANAYA-ISAZA等[35]提出的CrossTransUnet则创新性地结合跨注意力机制与分离卷积,将参数量缩减至标准UNet的五分之一,并在BraTS数据集上取得了94%的DSC值,不过部分模型因复杂度过高存在性能波动。这些混合架构在脑肿瘤MRI图像局部-全局特征融合方面取得了进展,但模块的复杂性仍有待进一步简化。

       面向资源高度受限的脑肿瘤MRI图像分割部署场景,轻量化策略与数据效率优化成为关键研究方向。ZHANG等[40]提出的IMS2Trans模型采用共享权重编码器与特征蒸馏策略,在脑肿瘤MRI图像模态缺失条件下仍能保持高分割精度,但对极端模态缺失的适应性尚存局限。此类工作充分展示了参数压缩的潜力,然而模型的解释性与临床适用性仍是未来研究中亟需突破的瓶颈。

       综上所述,从窗口化自注意力机制、CNN-Transformer混合架构到专门的轻量化设计,当前脑肿瘤MRI图像分割的研究致力于在计算效率与分割性能之间寻求最佳平衡,为脑肿瘤MRI图像分割技术的临床落地提供了多样化的解决方案。未来研究的核心挑战将聚焦于如何进一步降低模型对计算资源的依赖,并增强其可解释性以提升临床信任度。

6 模型结构与模块创新

       Transformer模型在脑肿瘤MRI分割中展现出显著优势,其核心的自注意力机制能够捕捉长距离依赖关系,有效建模脑肿瘤MRI图像中肿瘤区域的全局上下文信息,克服了传统卷积神经网络局部感受野的局限性[47]。通过多头注意力模块,模型可并行学习多尺度特征,精准识别肿瘤边界模糊、形态不规则及多区域分布的复杂特征。

6.1 基础模块优化

       脑肿瘤MRI图像分割领域的研究围绕Transformer架构展开了多样化的创新探索。初期研究主要聚焦于基础模块的改进。例如,PACAL等[48]提出的模型创新性地采用混合窗口划分策略以动态分配不同方向的注意力权重,并结合残差MLP缓解梯度消失问题。这些优化有效增强了模型对多尺度特征的捕捉能力,并提升了训练效率。然而,此类早期方法普遍面临脑肿瘤MRI图像分割数据不平衡和临床验证不足的挑战。

6.2 边缘特征增强与多尺度上下文整合

       随着研究的深入,多模态融合与边缘特征增强成为脑肿瘤MRI图像分割新的研究热点。为提升边界分割精度,ZHU等[49]提出的模型对Swin Transformer的移位窗口机制进行了改进,以增强脑肿瘤MRI图像局部特征提取能力。该模型进一步引入边缘空间注意块,专门从FLAIR或T1ce等多模态图像中捕获肿瘤边界信息,并通过图卷积网络实现多模态特征的有效融合。在此基础之上,VATANPOUR等[50]提出了双尺度Swin Transformer编码器与双级解码器的设计架构,该架构通过整合脑肿瘤MRI图像全局上下文信息与局部细节特征,显著提升了模型在肿瘤核心区域的分割性能。不过,这类高度复杂的架构也不可避免地带来了脑肿瘤MRI图像分割计算资源需求高、推理速度慢等问题。

6.3 自动化架构搜索与动态注意力机制

       为平衡脑肿瘤MRI图像分割模型精度与计算效率,局部-全局协同建模与自动化架构优化成为近期的重要方向。MA等[51]提出的模型设计了局部与全局双Transformer编码器,通过分层建模策略分别捕捉脑肿瘤细节特征与长程依赖关系,并辅以3D通道与空间注意力监督模块来抑制背景噪声,在脑肿瘤MRI图像多模态数据处理中展现出优势。陶永鹏等[52]提出的模型则探索了基于神经架构搜索的自动化优化技术,该技术能够动态调整脑肿瘤MRI图像分割网络结构以减少人工干预,在保证分割精度的同时显著提升计算效率。尽管如此,模型复杂度高、小样本泛化能力不足仍是当前亟待突破的关键瓶颈。

       总体而言,上述脑肿瘤MRI图像分割的研究逐步构建了从基础模块改进到复杂架构设计的连贯技术发展路径。展望未来,研究需进一步探索动态计算分配、边缘-语义联合优化等方向,以期有效应对脑肿瘤MRI图像分割中面临的数据稀缺、类别不平衡与实时性需求等挑战,最终推动Transformer模型在脑肿瘤MRI图像分割临床实践中的深入应用与落地。

7 小结与展望

       本文系统综述了Transformer在脑肿瘤MRI分割中的研究进展,指出传统卷积神经网络因局部感受野限制难以建模长距离依赖关系,而Transformer凭借全局自注意力机制和多头注意力模块,显著提升了肿瘤异质性纹理、模糊边界及多模态MRI序列的分割精度。通过改进模型架构,结合CNN的局部特征提取与Transformer的全局上下文建模优势,解决了多尺度特征融合与细节还原问题;同时,引入轻量化设计、模态缺失处理及动态稀疏注意力机制,逐步优化计算效率与临床适用性。虽然研究者们对 Transformer 进行了多样化的改进,但在脑肿瘤MRI图像分割上仍有诸多未解问题。(1)数据瓶颈与噪声:标注数据稀缺且昂贵,标注噪声显著,现有方法对医学图像细粒度噪声不敏感。(2)模态缺失与异构:临床常出现模态缺失,现有方法多假设模态完整,在动态缺失下性能下降严重。(3)类别不平衡与结构复杂:肿瘤占比极低,亚区差异大,传统损失忽略小病灶拓扑,致边界模糊断裂;肿瘤浸润的“渐变特性”与离散注意力冲突,易误分低对比度区域。(4)计算效率与可解释性:Transformer 的二次计算复杂度使3D MRI处理耗时,难满足术中实时需求;注意力图可解释性粗粒度,难关联病理特征,降低医生信任。

       针对Transformer 在脑肿瘤MRI图像分割改进中的问题,对其未来研究展望如下。(1)高效鲁棒数据利用:跨域协同增强数据(迁移学习、合成数据、联邦学习),发展层次化噪声校正与医学知识约束;(2)弹性模态建模:构建模态不可知架构,利用隐空间解耦、图网络动态补全特征及不确定性感知融合;(3)拓扑感知精细分割:突破像素级分割,联合优化几何拓扑;(4)突破效率与可解释瓶颈:优化模型降低计算成本以满足实时需求,发展细粒度、病理关联的可解释性方法提升临床信任;(5)闭环协同与临床集成:构建医生反馈驱动的闭环学习系统,开发交互式平台,结合联邦学习实现多中心协同,集成边缘计算与术中系统,实现工作流无缝嵌入。

       综上所述,本文全面综述了Transformer在脑肿瘤MRI分割中的应用进展。文章首先介绍了脑肿瘤精准分割的重要性以及传统CNN方法的局限性,指出Transformer凭借全局自注意力机制等优势为解决医学图像相关问题提供了新思路,但也面临诸多挑战。接着详细阐述了Transformer的发展,包括其在自然语言处理领域的起源、在计算机视觉领域如ViT的应用,以及在医学图像分析领域如nnFormer、Swin-Unet等的拓展。之后重点分析了模型结合、注意力机制、多模态处理、计算效率与轻量化、模型结构与模块创新在脑肿瘤MRI分割中的应用情况,指出了各方法的优势与不足。最后总结了Transformer在该领域存在的数据稀缺、多模态缺失等未解决的问题,并对未来研究方向如数据高效利用、模态弹性建模、拓扑感知优化、轻量化与可解释性增强、闭环协同学习等方面进行了展望。

[1]
ZHANG X L, CHEN Q, HE H Z, et al. Generative learning-based lightweight MRI brain tumor segmentation with missing modalities[J]. Expert Syst Appl, 2025, 261: 125478 [2025-06-19]. https://www.sciencedirect.com/science/article/abs/pii/S0957417424023455. DOI: 10.1016/j.eswa.2024.125478.
[2]
GHADIMI D J, VAHDANI A M, KARIMI H, et al. Deep learning-based techniques in glioma brain tumor segmentation using multi-parametric MRI: a review on clinical applications and future outlooks[J]. J Magn Reson Imaging, 2025, 61(3): 1094-1109. DOI: 10.1002/jmri.29543.
[3]
BENZORGAT N, XIA K W, BENZORGAT M N E. Enhancing brain tumor MRI classification with an ensemble of deep learning models and transformer integration[J/OL]. PeerJ Comput Sci, 2024, 10: e2425 [2025-06-19]. https://pubmed.ncbi.nlm.nih.gov/39650528/. DOI: 10.7717/peerj-cs.2425.
[4]
DOSOVITSKIY A, BEYER L, Kolesnikov A, et al. An Image is Worthx 16x16 Words: Transformers for Image Recognition at Scale[J/OL]. arXiv, 2020 [2025-06-19]. https://arxiv.org/abs/2010.11929. DOI: 10.48550/arXiv.2010.11929.
[5]
CAO H, WANG Y Y, CHEN J, et al. Swin-unet: unet-like pure transformer for medical image segmentation[M]//Computer Vision-ECCV 2022 Workshops. Cham: Springer Nature Switzerland, 2023: 205-218. DOI: 10.1007/978-3-031-25066-8_9.
[6]
WANG W X, CHEN C, DING M, et al. TransBTS: multimodal brain tumor segmentation using transformer[C]//Medical Image Computing and Computer Assisted Intervention-MICCAI 2021. Cham: Springer, 2021: 109-119. DOI: 10.1007/978-3-030-87193-2_11.
[7]
APPASAMI G, SAVARIMUTHU N. Federated learning for secure medical MRI brain tumor image classification[J/OL]. Eur Phys J Spec Top, 2025 [2025-06-19]. https://link.springer.com/article/10.1140/epjs/s11734-025-01516-z. DOI: 10.1140/epjs/s11734-025-01516-z.
[8]
HOU J F, KING T Z, CHEN H B, et al. Concurrent brain structural and functional alterations in the thalamus of adult survivors of childhood brain tumors: a multimodal MRI study[J/OL]. Brain Res Bull, 2024, 211: 110937 [2025-06-19]. https://pubmed.ncbi.nlm.nih.gov/38570077/. DOI: 10.1016/j.brainresbull.2024.110937.
[9]
MUNTAQIM M D Z, SMRITY T A. Federated learning framework for brain tumor detection using MRI images in non-IID data distributions[J/OL]. J Imaging Inform Med, 2025 [2025-06-19]. https://pubmed.ncbi.nlm.nih.gov/40128502/. DOI: 10.1007/s10278-025-01484-9.
[10]
李增辉, 王伟. 基于深度学习的医学图像分割方法研究进展[J]. 电子科技, 2024, 37(1): 72-80. DOI: 10.16180/j.cnki.issn1007-7820.2024.01.011.
LI Z H, WANG W. Research progress of medical image segmentation method based on deep learning[J]. Electron Sci Technol, 2024, 37(1): 72-80. DOI: 10.16180/j.cnki.issn1007-7820.2024.01.011.
[11]
李智唯, 曹慧, 杨锋, 等. 基于卷积神经网络的脑肿瘤分割的研究进展[J]. 激光与光电子学进展, 2021, 58(24): 2400003. DOI: 10.3788/LOP202158.2400003.
LI Z W, CAO H, YANG F, et al. Research progress of brain tumor segmentation based on convolutional neural network[J]. Laser Optoelectron Prog, 2021, 58(24): 2400003. DOI: 10.3788/LOP202158.2400003.
[12]
VASWANI A, Shazeer N, Parmar N. Attention is all you need[J/OL]. arXiv, 2017 [2025-06-19]. https://arxiv.org/abs/1706.03762. DOI: 10.48550/arXiv.1706.03762.
[13]
LIU Z, LIN Y T, CAO Y, et al. Swin transformer: hierarchical vision transformer using shifted windows[C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV). October 10-17, 2021, Montreal, QC, Canada. IEEE, 2021: 9992-10002. DOI: 10.1109/ICCV48922.2021.00986.
[14]
ZHOU H Y, GUO J, ZHANG Y, et al. nnFormer: Interleaved Transformer for Volumetric Segmentation[J/OL]. arXiv, 2021 [2025-06-19]. https://arxiv.org/abs/2109.03201. DOI: 10.48550/arXiv.2109.03201.
[15]
A P M, EVURI N, PAKALA S R, et al. 3D swin-res-SegNet: a hybrid transformer and CNN model for brain tumor segmentation using MRI scans[J/OL]. J Inst Eng Ind Ser B, 2024 [2025-06-19]. https://link.springer.com/article/10.1007/s40031-024-01166-0. DOI: 10.1007/s40031-024-01166-0.
[16]
HATAMIZADEH A, NATH V, TANG Y C, et al. Swin UNETR: Swin Transformers forSemantic Segmentation ofBrain Tumors inMRI Images[C]//Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries. Cham: Springer, 2022: 272-284. DOI: 10.1007/978-3-031-08999-2_22.
[17]
LI Z R, SILAMU W, WANG Y Z, et al. DenseTrans: multimodal brain tumor segmentation using swin transformer[J/OL]. IEEE Access, 2023, 11: 42895-42908 [2025-06-19]. https://ieeexplore.ieee.org/abstract/document/10113635. DOI: 10.1109/ACCESS.2023.3272055.
[18]
戴昂, 宋亚男, 徐荣华, 等. 基于改进TransBTS的脑肿瘤分割算法研究[J]. 实验技术与管理, 2023, 40(8): 13-19, 39. DOI: 10.16791/j.cnki.sjg.2023.08.003.
DAI A, SONG Y N, XU R H, et al. Study on brain tumor segmentation algorithm based on improved TransBTS[J]. Exp Technol Manag, 2023, 40(8): 13-19, 39. DOI: 10.16791/j.cnki.sjg.2023.08.003.
[19]
LI J, WANG W, CHEN C, et al. TransBTSV2: Wider Instead of Deeper Transformer for Medical Image Segmentation[J/OL]. ArXiv, 2022, abs/2201.12785 [2025-06-19]. https://arxiv.org/abs/2201.12785. DOI: 10.48550/arXiv.2201.12785.
[20]
KANG M, F F T, R C, et al. A Multimodal Feature Distillation with CNN-Transformer Network for Brain Tumor Segmentation with Incomplete Modalities[J/OL]. ARXiv,2024 [2025-06-19]. https://arxiv.org/abs/2404.14019. DOI: 10.48550/arxiv.2404.14019.
[21]
LEI X, YU X, WU H, et al. Clinical Knowledge-Based Hybrid Swin Transformer for Brain Tumor Segmentation[J]. Computers, Materials & Continua, 2023, 76(9): 3797-3811. DOI: 10.32604/cmc.2023.042069.
[22]
LYU Y, TIAN X L. MWG-UNet: hybrid deep learning framework for lung fields and heart segmentation in chest X-ray images[J/OL]. Bioengineering (Basel), 2023, 10(9): 1091 [2025-06-19]. https://pubmed.ncbi.nlm.nih.gov/37760193/. DOI: 10.3390/bioengineering10091091.
[23]
RASOOL N, IQBAL BHAT J, AHMAD WANI N, et al. TransResUNet: revolutionizing glioma brain tumor segmentation through transformer-enhanced residual UNet[J/OL]. IEEE Access, 2024, 12: 72105-72116. [2025-06-19]. https://ieeexplore.ieee.org/document/10534774. DOI: 10.1109/ACCESS.2024.3402947.
[24]
罗康, 丁德锐, 庞飞翔. LFC-UNETR: 一种用于多模态的脑肿瘤分割的全卷积网络[J/OL]. 小型微型计算机系统, 2024: 1-9. [2024-09-26]. https://kns.cnki.net/kcms/detail/21.1106.TP.20240926.1151.006.html.
LUO K, DING D R, PANG F X. LFC-UNETR: a full-convolutional network for multimodal brain tumor segmentation[J/OL]. J Chin Comput Syst, 2024: 1-9. (2024-09-26). https://kns.cnki.net/kcms/detail/21.1106.TP.20240926.1151.006.html.
[25]
华楷文, 方贤进. 用于多模态MRI脑肿瘤图像分割的融合双重对抗学习CNN-Transformer模型[J]. 湖北民族大学学报(自然科学版), 2023, 41(4): 479-488. DOI: 10.13501/j.cnki.42-1908/n.2023.12.009.
HUA K W, FANG X J. Fusing dual adversarial learning CNN-transformer model for multi-modal MRI brain tumor image segmentation[J]. J Hubei Minzu Univ Nat Sci Ed, 2023, 41(4): 479-488. DOI: 10.13501/j.cnki.42-1908/n.2023.12.009.
[26]
王浩宇, 朱文韬, 肖刚, 等. 基于TransUnet和残差结构的脑肿瘤图像分割方法[J]. 中国体视学与图像分析, 2023, 28(1): 98-107. DOI: 10.13505/j.1007-1482.2023.28.01.011.
WANG H Y, ZHU W T, XIAO G, et al. Research on brain tumor segmentation by optimizing a TransUnet based algorithm[J]. Chin J Stereol Image Anal, 2023, 28(1): 98-107. DOI: 10.13505/j.1007-1482.2023.28.01.011.
[27]
MUTHUSIVARAJAN R, CELAYA A, YUNG J P, et al. Evaluating the relationship between magnetic resonance image quality metrics and deep learning-based segmentation accuracy of brain tumors[J]. Med Phys, 2024, 51(7): 4898-4906. DOI: 10.1002/mp.17059.
[28]
CAI J P, HE Z, ZHENG Z W, et al. Learning global dependencies based on hierarchical full connection for brain tumor segmentation[J/OL]. Comput Methods Programs Biomed, 2022, 221: 106925 [2025-06-19]. https://pubmed.ncbi.nlm.nih.gov/35688765/. DOI: 10.1016/j.cmpb.2022.106925.
[29]
NGUYEN-TAT T B, NGUYEN T T, NGUYEN H N, et al. Enhancing brain tumor segmentation in MRI images: a hybrid approach using UNet, attention mechanisms, and transformers[J/OL]. Egypt Inform J, 2024, 27: 100528 [2025-06-19]. https://www.sciencedirect.com/science/article/pii/S1110866524000914. DOI: 10.1016/j.eij.2024.100528.
[30]
ZHANG M Q, LIU D W, SUN Q L, et al. Augmented Transformer network for MRI brain tumor segmentation[J/OL]. J King Saud Univ Comput Inf Sci, 2024, 36(1): 101917 [2025-06-19]. https://www.sciencedirect.com/science/article/pii/S1319157824000065. DOI: 10.1016/j.jksuci.2024.101917.
[31]
SHEDBALKAR J, PRABHUSHETTY K, R H H. UNet and transformer-based model for multi-modality brain tumor segmentation[J]. Int J Electron Commun Eng, 2023, 10(8): 22-35. DOI: 10.14445/23488549/ijece-v10i8p103.
[32]
LI Z R, SILAMU W, FENG S R, et al. Focal cross transformer: multi-view brain tumor segmentation model based on cross window and focal self-attention[J/OL]. Front Neurosci, 2023, 17: 1192867 [2025-06-19]. https://pubmed.ncbi.nlm.nih.gov/37250393/. DOI: 10.3389/fnins.2023.1192867.
[33]
SHI J J, YU L, CHENG Q M, et al. M2 FTrans: modality-masked fusion transformer for incomplete multi-modality brain tumor segmentation[J/OL]. IEEE J Biomed Health Inform, 2023 [2025-06-19]. https://pubmed.ncbi.nlm.nih.gov/37862279/. DOI: 10.1109/JBHI.2023.3326151.
[34]
ZAKARIAH M, AL-RAZGAN M, ALFAKIH T. Dual vision Transformer-DSUNET with feature fusion for brain tumor segmentation[J/OL]. Heliyon, 2024, 10(18): e37804 [2025-06-19]. https://pubmed.ncbi.nlm.nih.gov/39323802/. DOI: 10.1016/j.heliyon.2024.e37804.
[35]
ANAYA-ISAZA A, MERA-JIMÉNEZ L, FERNANDEZ-QUILEZ A. CrossTransUnet: a new computationally inexpensive tumor segmentation model for brain MRI[J/OL]. IEEE Access, 2023, 11: 27066-27085 [2025-06-19]. https://ieeexplore.ieee.org/document/10073551. DOI: 10.1109/access.2023.3257767.
[36]
刘万军, 姜岚, 曲海成, 等. 融合CNN与Transformer的MRI脑肿瘤图像分割[J]. 智能系统学报, 2024, 19(4): 1007-1015. DOI: 10.11992/tis.202301016.
LIU W J, JIANG L, QU H C, et al. MRI brain tumor image segmentation by fusing CNN and Transformer[J]. CAAI Trans Intell Syst, 2024, 19(4): 1007-1015. DOI: 10.11992/tis.202301016.
[37]
ABOUSSALEH I, RIFFI J, FAZAZY K EL, et al. 3DUV-NetR+: a 3D hybrid semantic architecture using transformers for brain tumor segmentation with MultiModal MR images[J/OL]. Results Eng, 2024, 21: 101892 [2025-06-19]. https://www.sciencedirect.com/science/article/pii/S2590123024001452. DOI: 10.1016/j.rineng.2024.101892.
[38]
TING H, LIU M H. Multimodal transformer of incomplete MRI data for brain tumor segmentation[J]. IEEE J Biomed Health Inform, 2024, 28(1): 89-99. DOI: 10.1109/JBHI.2023.3286689.
[39]
NEHRU V, PRABHU V. Automated multimodal brain tumor segmentation and localization in MRI images using hybrid Res2-UNeXt[J]. J Electr Eng Technol, 2024, 19(5): 3485-3497. DOI: 10.1007/s42835-023-01779-3.
[40]
ZHANG D S, WANG C J, CHEN T H, et al. Scalable Swin Transformer network for brain tumor segmentation from incomplete MRI modalities[J/OL]. Artif Intell Med, 2024, 149: 102788 [2025-06-19]. https://pubmed.ncbi.nlm.nih.gov/38462288/. DOI: 10.1016/j.artmed.2024.102788.
[41]
LIN J W, LIN J T, LU C, et al. CKD-TransBTS: clinical knowledge-driven hybrid transformer with modality-correlated cross-attention for brain tumor segmentation[J]. IEEE Trans Med Imag, 2023, 42(8): 2451-2461. DOI: 10.1109/tmi.2023.3250474.
[42]
王彩莲, 郑文斌. 基于图卷积与Transformer的缺失模态脑肿瘤分割[J]. 计算机技术与发展, 2025, 35(7): 173-181. DOI: 10.20165/j.cnki.ISSN1673-629X.2025.0064.
WANG C L, ZHENG W B. Missing modality brain tumor segmentation based on graph convolution and transformer[J]. Comput Technol Dev, 2025, 35(7): 173-181. DOI: 10.20165/j.cnki.ISSN1673-629X.2025.0064.
[43]
YANG H Y, ZHOU T, ZHOU Y, et al. Flexible fusion network for multi-modal brain tumor segmentation[J]. IEEE J Biomed Health Inform, 2023, 27(7): 3349-3359. DOI: 10.1109/JBHI.2023.3271808.
[44]
CAO J, LIU J J, CHEN J R. A brain tumor segmentation method based on attention mechanism[J/OL]. Sci Rep, 2025, 15: 15229 [2025-06-19]. https://www.nature.com/articles/s41598-025-98355-8. DOI: 10.1038/s41598-025-98355-8.
[45]
WANG Y, XU J, GUAN Y C, et al. MSegNet: a multi-view coupled cross-modal attention model for enhanced MRI brain tumor segmentation[J/OL]. Int J Comput Intell Syst, 2025, 18(1): 63 [2025-06-19]. https://link.springer.com/article/10.1007/s44196-025-00787-7. DOI: .
[46]
PEIRIS H, HAYAT M, CHEN Z L, et al. A robust volumetric transformer forAccurate 3D tumor segmentation[C]//Medical Image Computing and Computer Assisted Intervention-MICCAI 2022. Cham: Springer, 2022: 162-172. DOI: 10.1007/978-3-031-16443-9_16.
[47]
WANG P Y, YANG Q S, HE Z B, et al. Vision transformers in multi-modal brain tumor MRI segmentation: a review[J/OL]. Meta-Radiology, 2023, 1(1): 100004 [2025-06-19]. https://www.sciencedirect.com/science/article/pii/S2950162823000048. DOI: 10.1016/j.metrad.2023.100004.
[48]
PACAL I. A novel Swin transformer approach utilizing residual multi-layer perceptron for diagnosing brain tumors in MRI images[J]. Int J Mach Learn Cybern, 2024, 15(9): 3579-3597. DOI: 10.1007/s13042-024-02110-w.
[49]
ZHU Z Q, HE X Y, QI G Q, et al. Brain tumor segmentation based on the fusion of deep semantics and edge information in multimodal MRI[J/OL]. Inf Fusion, 2023, 91: 376-387 [2025-06-19]. https://www.sciencedirect.com/science/article/abs/pii/S1566253522001981. DOI: 10.1016/j.inffus.2022.10.022.
[50]
VATANPOUR M, HADDADNIA J. TransDoubleU-Net: dual scale swin transformer with dual level decoder for 3D multimodal brain tumor segmentation[J/OL]. IEEE Access, 2023, 11: 125511-125518 [2025-06-19]. https://www.researchgate.net/publication/375513597_TransDoubleU-Net_Dual_Scale_Swin_Transformer_with_Dual_Level_Decoder_for_3D_Multimodal_Brain_Tumor_Segmentation. DOI: 10.1109/access.2023.3330958.
[51]
MA B, SUN Q, MA Z, et al. DTASUnet: a local and global dual transformer with the attention supervision U-network for brain tumor segmentation[J/OL]. Sci Rep, 2024, 14: 28379 [2025-06-19]. https://www.nature.com/articles/s41598-024-78067-1. DOI: 10.1038/s41598-024-78067-1.
[52]
陶永鹏, 柏诗淇, 周正文. 基于卷积和Transformer神经网络架构搜索的脑胶质瘤多组织分割网络[J]. 计算机应用, 2025, 45(7): 2378-2386. DOI: 10.11772/j.issn.1001-9081.2024070977.
TAO Y P, BAI S Q, ZHOU Z W. Neural architecture search for multi-tissue segmentation using convolutional and transformer-based networks in glioma segmentation[J]. J Comput Appl, 2025, 45(7): 2378-2386. DOI: 10.11772/j.issn.1001-9081.2024070977.

上一篇 多模态磁共振在脑胶质瘤微环境异质性分割方法的研究进展
下一篇 脊髓型颈椎病患者磁共振脑影像研究进展
  
诚聘英才 | 广告合作 | 免责声明 | 版权声明
联系电话:010-67113815
京ICP备19028836号-2