分享:
分享到微信朋友圈
X
综述
人工智能在胃肠道肿瘤影像自动分割可视化的研究进展
蒋常琴 张友军 马文珊 冯强

Cite this article as: JIANG C Q, ZHANG Y J, MA W S, et al. Research progress of artificial intelligence in automatic segmentation and visualization of gastrointestinal tumor images[J]. Chin J Magn Reson Imaging, 2025, 16(6): 214-219.本文引用格式:蒋常琴, 张友军, 马文珊, 等. 人工智能在胃肠道肿瘤影像自动分割可视化的研究进展[J]. 磁共振成像, 2025, 16(6): 214-219. DOI:10.12015/issn.1674-8034.2025.06.033.


[摘要] 医学影像技术的快速发展显著提高了胃肠道肿瘤(gastrointestinal tumors, GIT)的诊断和治疗水平。然而,由于肿瘤形态的复杂性、成像方式的变化以及对高精度描绘的需求,GIT的准确分割和可视化在临床实践中仍面临挑战。人工智能(artificial intelligence, AI),特别是深度学习(deep learning, DL)模型,已成为医学影像领域的一种变革性方法,在自动化肿瘤分割任务方面显示出巨大的潜力,但同时也存在模型泛化能力有限等问题。GIT的高度异质性对分割模型提出了更高要求,且当前缺乏统一的评估标准与临床验证机制,限制了AI工具在实际诊疗流程中的可信度和可解释性。本文通过系统地综述基于AI的GIT图像自动分割研究进展,重点介绍不同影像检查方式的DL架构、多模态成像模型等AI框架应用方面的关键成果,总结现有研究的不足,探讨其未来研究的发展方向,为AI驱动的分割工具在研究与临床转化中的应用提供理论支持与实践参考。
[Abstract] The rapid development of medical imaging technology has significantly enhanced the diagnosis and treatment of gastrointestinal tumors (GIT). However, due to the complex morphology of tumors, variations in imaging modalities, and the need for high-precision depiction, accurate segmentation and visualization of GIT remain challenging in clinical practice. Artificial intelligence (AI), particularly deep learning (DL) models, has emerged as a transformative approach in medical imaging, demonstrating great potential in automating tumor segmentation tasks. Nevertheless, issues such as limited generalization ability of models persist. The high heterogeneity of GIT imposes greater demands on segmentation models, and the current lack of standardized evaluation criteria and clinical validation mechanisms further limits the reliability and interpretability of AI tools in real-world diagnostic and therapeutic settings. This article provides a comprehensive review of recent advancements in AI-based automatic segmentation of GIT images. It focuses on the key achievements in AI frameworks, including DL architectures and multimodal imaging models, applied across various imaging modalities. The article also summarizes the limitations of existing research and outlines future directions. By systematically reviewing the progress in GIT segmentation and visualization, this work aims to explore future research trajectories and offer both theoretical support and practical guidance for the application of AI-driven segmentation tools in research and clinical translation.
[关键词] 人工智能;胃肠道肿瘤;深度学习;诊断;多模态成像
[Keywords] artificial intelligence;gastrointestinal tumors;deep learning;diagnosis;multimodal imaging

蒋常琴    张友军    马文珊    冯强 *  

山东第二医科大学附属益都中心医院医学影像科,潍坊 262500

通信作者:冯强,E-mail:fengqiang220812@163.com

作者贡献声明::冯强设计本研究方案,参与研究的构思和设计,对关键内容进行解释,对稿件重要内容进行了修改,获得了山东省医药卫生科技项目资助;蒋常琴起草和撰写稿件,获取、分析或解释本研究的数据,对稿件重要内容进行了修改;张友军、马文珊等获取、分析或解释本研究的数据,对稿件重要内容进行了修改;全体作者都同意发表最后的修改稿,同意对本研究的所有方面负责,确保本研究的准确性和诚信。


基金项目: 山东省医药卫生科技项目 202309010835
收稿日期:2025-02-06
接受日期:2025-06-05
中图分类号:R445.2  R735.2  R735.3 
文献标识码:A
DOI: 10.12015/issn.1674-8034.2025.06.033
本文引用格式:蒋常琴, 张友军, 马文珊, 等. 人工智能在胃肠道肿瘤影像自动分割可视化的研究进展[J]. 磁共振成像, 2025, 16(6): 214-219. DOI:10.12015/issn.1674-8034.2025.06.033.

0 引言

       胃肠道肿瘤(gastrointestinal tumors, GIT)涵盖结直肠癌、胃癌、食管癌等,是全球范围内常见的恶性肿瘤之一,也是主要癌症相关死亡原因之一[1, 2]。在中国,GIT的发病率和死亡率也显著攀升,严重影响了我国居民健康水平。尽管治疗技术有所进步,但晚期GIT的预后仍不理想,因此,早期发现和精准诊断是提高患者生存率的关键[3, 4]。然而,由于肿瘤多具有形态复杂、异质性高,与周围组织关系紧密等特点,也给临床诊疗带来重大挑战。

       目前,医学影像技术如计算机断层扫描(computed tomography, CT)、磁共振成像(magnetic resonance imaging, MRI)、内窥镜以及PET/CT(positron emission tomography/computed tomography)等在GIT的精准诊断、分期与管理过程中发挥了关键作用。在影像上,肿瘤分割能够精确定位和提取病灶,为GIT的精准诊断提供形态学和空间信息支持,是精准诊断的重要一环。但精准分割GIT,并将肿瘤可视化,仍面临挑战。传统上,手动分割是肿瘤影像分析的主要手段,但这一过程不仅耗时费力,还高度依赖放射科医生的经验,导致诊断结果存在客观性和一致性不足的问题[3, 5, 6]。此外,GIT的不规则形状及其与邻近器官复杂紧密的解剖关系,也进一步增加了精准分割的难度。

       近年来,人工智能(artificial intelligence, AI)在医学影像领域展现出巨大的潜力[7]。深度学习(deep learning, DL)算法如卷积神经网络(convolutional neural network, CNN)等能显著提高肿瘤分割的准确性和效率[8, 9]。与传统方法相比,AI在肿瘤边界划分、形态识别以及减少人力方面表现出色[10, 11]。在GIT分割领域,AI的应用也逐渐深入,已有部分研究将AI应用于胃癌、结直肠癌等肿瘤的术前评估、辅助诊断及预后分析中。例如,在结直肠癌中,基于U-Net的分割模型用于CT图像肿瘤的自动分割,取得了良好的分割性能,Dice相似系数(Dice similarity coefficient, DSC)超过0.85[12]。DEVI等[13]提出的级联DL架构也在结直肠癌检测与分割中表现出较高的准确度。在胃癌方面,TAO等[14]开发的基于增强CT图像的DL模型,能够自动完成胃癌的分割与分期评估,展现出较强的临床应用潜力。尽管如此,聚焦于GIT的AI研究仍面临多重挑战:第一,现有研究多基于小样本或单中心数据,缺乏通用性强、异质性高的大规模数据集,导致模型的泛化能力有限;第二,GIT具有高度异质的影像表现,如黏液腺癌、环形病变、溃疡型早期癌等,对分割模型的识别能力提出更高要求;第三,目前尚缺乏统一的评价标准和临床验证机制,AI工具在实际诊疗流程中的可信度和可解释性仍待加强。因此,有必要对AI在GIT影像分割与可视化领域的研究进展进行系统综述,明确当前技术在不同GIT中的应用现状与主要成果,总结尚未解决的关键问题,探讨未来研究的发展方向。

1 医学影像图像AI自动分割

       影像学在GIT的管理中至关重要,可提供关于肿瘤位置、大小及扩散的关键信息。常见的不同影像学检查在肿瘤的临床管理中各有优势。CT扫描广泛用于GIT的分期和治疗规划[8],MRI由于其卓越的软组织对比度,在检测直肠癌和肝转移瘤方面具有重要价值[15]。另外,内窥镜检查可直接观察黏膜表面,并常结合活检进行组织学分析。PET/CT可通过提供功能性影像,基于代谢活性帮助区分良性与恶性病变[16]。在影像上对肿瘤进行分割是临床诊断的关键步骤,也是精准诊断重要一环。近年来,应用AI方法分割肿瘤表现出巨大潜力,通过利用海量影像数据,AI算法能够学习复杂的模式,并实现分割过程的自动化。建立AI分割模型的主要步骤包括三步:预处理、模型训练及模型评估。在评估分割算法的准确性时,常用的分割性能评价指标包括:DSC,用于衡量预测分割结果与真实分割掩膜之间的重叠程度,DSC得分越高(接近1),表明分割性能越好。交并比(intersection over union, IOU),又称Jaccard指数,用于计算预测分割和真实分割区域的交集与并集的比值。此外,敏感度、特异度、精确度与召回率等也是评价分割模型效果的常用指标。

       AI已经逐步改变了医学影像分析现状,使复杂数据集的自动化处理成为可能[16, 17]。与传统机器学习(machine learning, ML)依赖于手工勾画-提取特征不同,DL利用CNN等方法自动学习特征[18],这一技术显著提升了医学影像中分割任务的性能[5]。作为AI的一个重要分支,DL模型可直接从原始图像中提取特征,无需手动勾画及提取,因而在解剖环境较复杂的GIT分割方面有较大的应用潜力。尽管AI模型在图像分割任务中取得了较高的准确率,但跨研究的模型仍面临挑战,主要原因是数据集和评估协议的差异。为解决这一问题,“标准化基准测试”(medical segmentation decathlon, MSD)在促进公平比较和推动领域发展方面发挥了重要作用[19]。此外,多种公开可用的数据集(如MSD和EndoVis挑战数据集等)可能为GIT影像AI模型的开发提供支持[20, 21]。这些基准数据集不仅推动了AI技术的进步,还为不同影像技术和肿瘤类型的分割模型标准化评估创造了条件。

2 GIT影像AI自动分割

2.1 基于CT的分割

       近年来,通过AI模型进行的CT肿瘤分割取得了显著进展[22, 23]。例如,Pirabaharan等提出的“交互U-Net模型”,与使用加权损失函数的标准U-Net相比提高了整体分割精度。通过仅利用单个用户交互,与普通标准U-net模型相比,将整体准确度提高了10.39%[24]。王云利[25]提出了一种基于“分水岭区域合并”的胃部CT图像分割方法。该方法通过人工划线和区域特征相似性准则提高了分割准确性,为了减少交互影响,研究引入了“种子点迁移生长”技术,解决了胃部CT图像中边缘模糊以及与临近结构界限不清的问题,提高了分割速度和准确性。郑楷宜等[26]等评估了三维no-new-U-Net(3D nnU-Net)DL网络模型,基于腹部CT图像自动分割结直肠癌,并经多中心、多机型的数据集训练和验证后,发现3D nnU-Net DL模型可实现在腹部CT图像对结直肠癌的自动分割,模型具有较好的鲁棒性及泛化能力,动脉期分割能力优于静脉期,计算分割覆盖率(calculate segmentation-coverage ratio, SCR)、DSC分别为0.865、0.714。以上研究显示,基于CNN的分割模型在分割GIT上表现不俗,但CT不同扫描仪及成像协议之间的差异,加上胃癌浸润性生长模式和不规则形态,仍然是GIT分割面临的主要挑战。基于此,LI等[27]提出一种新型的“3D改进特征金字塔网络”(3D improved feature pyramid network, 3D IFPN),用于在CT图像中自动分割胃肿瘤,并在三个外部中心验证了此模型的分割能力,结果均优于标准的U-Net[27]。另有一些研究将注意力机制算法引入到DL模型,可能进一步改进GIT的分割能力。例如,李昭松[28]提出的多任务注意力U-Net(multi task attention, MTA U-Net)模型,利用半监督学习来减少腹部医学图像分割中的误分割和漏检问题,通过引入注意力机制和分类分割一致性损失函数,该模型在减少标注需求的同时,分割模型的IOU提高了2.20%。此外,HE等[29]提出了一种基于自注意力机制的DL模型,显著改进了胃癌的边界识别,在测试集和外部验证集中,DSC分别达到了0.85和0.81,具有较高的分割准确性[29]

       以上这些胃癌分割的AI模型,主要停留在理论研究阶段,仅有少数研究进行了临床外部验证,但均尚未在真实临床场景中进行随机对照研究。尤其缺乏在肿瘤分期及治疗规划等关键应用领域的临床精度评估,作为进入常规临床实践的必要前提[30, 31],此方向的研究仍存在需要填补的空白。

2.2 基于MRI的分割

       MRI也是GIT检查的重要技术,在GIT的术前分期、术后或治疗后效果评价方面表现出重要价值。基于CNN的GIT分割也是研究热点之一[31]。冉昭等[32]提出了一种基于Res Net50的全自动肿瘤分割网络模型,用于直肠癌的MRI图像分割,该方法提高了分割结果的可重复性和准确性,在多个指标上优于传统方法。另外,结合注意力机制与三维CNN的分割模型也在直肠癌的MRI分割中表现出较好的分割价值。例如,马玉兰[33]开发了一种空间频域双分支注意力模型(spatial frequency-dual branch attention model, SF-DBAM),该模型结合CNN和Transformer模块,实现了结直肠癌肿瘤区域的精确分割,DSC达到了92.08%,阳性预测值达到93.93%,并且在此基础做了KRAS基因突变状态的预测模型,预测准确度达89.87%,曲线下面积(area under the curve, AUC)达96.03%,优于现有的其他非侵入性方法。另一项较有前景的研究方向是多模态、多技术交叉融合,通过整合多种影像信息以提高诊断精度和分割效果。例如,XUE等[34]开发了一种融合模型,将基于PET/CT的各参数以多分支、多通道和级联网络的基线技术进行比较,最终提出一种联合学习模型(federal learning model, FLM),该模型在应用到肝脏分割时比单纯的CNN模型具有更高的准确性[34],该技术可能为建立更优越的GIT分割模型提供新的方向。此外,HE等[30]探索了胃癌基于融合变压器和U-Net的双分支混合网络多模态分割办法,通过仅聚合深度特征来获得两个分支的显著病变特征,并降低模型的复杂性,最终胃癌的分割IOU为81.3%,DSC为89.5%,准确度为94.0%[30]。此外,国内的一些研究者也在CNN的基础上进行了一定优化,例如,康帅等[35]提出一种多任务学习模型DPU-Net,在联合分割与直肠肿瘤分期的多任务工作模式下,分割精度DSC为0.83,相比于标准模型U-Net提升了17.96%,并在研究中和其他的一些传统分割模型进行了效能对比,分割准确率较Dense-Net模型提高了9.43%,该研究进一步进行了肿瘤分类预测,准确率达76.24%,表现出较好的临床应用潜力。

       呼吸运动和胃肠蠕动引起的运动伪影是胃肠道影像中的常见挑战,近年来在这一领域的研究取得了显著进展。动态MRI序列结合基于AI的运动校正算法在减少运动引起的失真和改善图像质量方面显示出巨大潜力[36]。MRI数据的高维性是AI分割的另一主要挑战,这需要开发既能保证处理速度又能实现高分割精度的高效模型。例如,LIU等[36]受Fovea在视觉神经科学中工作原理的启发,提出了一种新的基于U-Net的肿瘤分割网络框架Fovea-U-Net,聚焦于与结直肠淋巴结转移(lymph node metastasis, LNM)的相关区域,并采用基于Ghost Net的改进型轻量级骨干网,以降低浮点数(floating point, FP)计算成本,该模型计算参数量大大降低,但分割效能与其他一些分割模型相当,IOU为79.38%,DSC为88.51%,敏感度为92.82%,准确度为84.57%[35]。虽然目前这些模型在实时应用中显示出潜力,但在处理复杂解剖结构或肿瘤边界较为模糊的情况时,可能会牺牲分割的精准度。这种效率与精度之间的权衡,凸显了在模型设计中持续创新的必要性,尤其是在需要高分辨率分割的GIT应用中是更需考量的因素。GIT分割在常规临床工作流程中的整合仍处于起步阶段。大量计算资源的需求、扫描仪之间的变异性以及监管审批是临床应用前需要解决的主要问题。在前瞻性临床试验中进一步验证该方法,并优化其可扩展性,是确保其临床实用性的关键步骤[37]。此外,不同产品的MRI协议缺乏标准化,也为模型的训练和通用性部署带来难题。由于扫描仪类型、采集参数以及患者人群的差异,模型在不同数据源之间可能面临领域偏移问题,从而导致其在外部数据集上的分割性能不一致[38]。这些变异性均可能影响GIT分割模型的鲁棒性。尽管目前初步结果令人鼓舞,但这些方法仍处于临床研究的早期阶段,在实现广泛应用前仍需要进一步的研究及证据支持。

2.3 基于内镜影像与视频的分割

       内镜检查是诊断和管理GIT重要的工具之一,它可直接观察胃肠道并对可疑病灶进行活检。但内镜图像和视频的解读高度依赖操作人员经验,且由于光照条件差、组织外观多样化以及视频成像的动态特性,实时分割肿瘤存在较大挑战性。

       AI在解决内镜图像解读和肿瘤分割方面取得显著进展。基于CNN和Transformer的架构已被应用于内镜影像的自动肿瘤分割。目前,内镜影像分割最大的问题在于对伪影的处理,如运动模糊、气泡、镜面反射、漂浮物体等均可能影响最终的视觉解析[39]。为解决这些问题,ALI等[39]在CNN模型的基础上,使用编码器-解码器模型对不规则形状的伪影进行逐像素分割,并引入质量分数来评估视频帧质量并预测图像恢复成功率,探测器在25%和50%的IOU阈值下分别产生45.7和34.7的最高平均精度,最低计算时间为88毫秒,允许近乎实时的分析处理[39, 40],大大增加了模型在临床应用的实效性。此外,一些模型开发了适合临床应用的帧速率算法处理内镜图像,使其具有更高的临床适用性。例如,刘小琪[41]提出了一种名为Hue-texture-embedded的活动轮廓分割模型,专为胃癌的放大内镜窄带成像(magnifying endoscopy-narrow band imaging, ME-NBI)图像设计,该模型通过结合全局色度和局部纹理能量泛函,并采用水平集方法,有效地分割边界模糊的区域。此外,该研究利用深度迁移学习对类内差异显著的胃部ME-NBI图像进行分类,将其分为慢性胃炎、低级别瘤变和胃癌三类,在分割肿瘤的基础上,同时提高了分类诊断的准确性[41]

       整体来说,由于视频成像的动态特性,目前基于视频的分割涉及对连续帧的分析,复杂性进一步增加,现有的模型仍存在精度不够理想的问题。且研究胃肠道内镜下分割的研究仍然较少,仍需进一步探索[42]。此外,出于捕捉视频帧之间的时间依赖性,先进的DL模型,如时间依赖的CNN模型和循环神经网络算法等可能为提高实时系统的分割准确性提供可能。

2.4 其他检查

       其他一些影像检查,例如PET/CT,通过突出代谢活动区域作为解剖影像的功能性补充,使得PET/CT在检测肿瘤边界和评估GIT转移扩散方面尤为有用。然而,由于PET分辨率较低,手动分割PET/CT图像比单独分割CT或MRI更加困难[15, 43, 44, 45]。应用AI在对PET/CT图像自动化肿瘤分割方面展现了潜力。以往有研究将基于PET/CT的不同DL分割模型对淋巴瘤的分割效能进行比较,发现SAC贝叶斯分割准确性高于手动分割,DSC为0.94 vs.0.84,P<0.001[44]。此外,多模态融合网络(multi-modality fusion networks, MFN)正在成为另一前沿研究领域,即将PET、CT和MRI数据联合使用,以进一步提高分割精度。这类DL网络模型通常利用注意力机制动态加权各模态的重要特征,从而增强分割模型的鲁棒性[45]。尽管以上方法在肿瘤分割方面显示出潜力,但目前PET/CT主要应用于全身转移瘤、淋巴瘤等的评价,缺少大规模标注PET/CT的GIT数据集,加之处理多模态数据的高计算需求等障碍,目前尚未有基于此类AI分割模型在GIT的临床研究,因此该研究方向仍存在需要填补的空白。

3 局限性与未来发展方向

       尽管AI在GIT影像分割中取得了显著进展,但其在临床实践中的应用仍面临诸多挑战。首先,数据集的规模普遍较小且标注不足,DL模型的训练和验证需要大规模的标注数据集。而构建这些数据集是一项劳动密集型工作,需要影像专家对图像进行精确标注,尤其是对于罕见或非典型肿瘤,这一过程则更为困难。其次,目前公开的标注数据集数量有限,且覆盖的患者群体和影像模式不足,限制了模型在不同患者群体和临床场景中的普适性。另一个关键问题是AI模型的泛化能力,由于成像设备、采集参数以及患者人口学特征的差异,不同机构和患者群体的数据可能存在偏倚,从而影响模型性能。这种差异性凸显了数据预处理和验证流程标准化的必要性[18]。此外,由于数据集和评估协议的不同,跨研究比较模型性能仍具有挑战性,MSD在促进公平比较和推动领域发展方面可能发挥重要作用[21]

       未来的AI模型可能通过整合多种影像方法(如CT、MRI、PET/CT和内镜影像等),进一步提高肿瘤分割的准确性和鲁棒性。混合网络(hybrid network, HN)能够动态加权各模态的重要特征,为研发更全面的诊断工具奠定基础[30, 46]。FLM等无需共享原始数据即可实现跨机构协作训练的技术,能够在保障患者隐私的同时解决数据稀缺性问题[47]。通过整合多机构的多样化数据,FLM有助于构建大规模高质量的数据集,从而提升模型的泛化能力、可解释性与临床可信度。此外,FLM还可推动开发具备可视化或文本解释能力的可解释AI模型,进一步增强临床医生对AI工具的信任。增加AI模型的解释性功能将帮助临床医生更好地理解算法决策,并使AI工具更容易融入临床实践。此外,建立标准化的数据集、评估协议和报告指南,对于确保AI研究的公平性和可重复性也至关重要,未来可推动全球性合作,制定统一标准,以促进AI技术在医学影像领域的规范化发展。

4 总结

       AI作为未来医学领域变革的关键工具,在肿瘤诊治中展现出了巨大的应用潜能,尤其在自动化GIT影像分割方面取得了显著进展。尽管当前研究在CT、MRI、内镜和PET/CT等多种影像模态上均已取得初步成果,但数据可用性、模型泛化性及临床转化仍是亟需解决的核心问题(表1)。

       综上,通过对各模态下AI辅助GIT分割的临床价值、主要优势与现存缺陷进行总结发现,AI在不同影像技术中的应用各有侧重,也面临不同的发展瓶颈。只有通过多方协同努力,才能真正实现AI驱动的GIT智能诊疗体系,从而改善患者预后、提升医疗服务水平。

表1  不同影像技术中AI在GIT诊疗中的应用价值、优势与局限
Tab. 1  Application value, advantages and limitations of AI in GIT diagnosis and treatment among different imaging techniques

[1]
BRAY F, LAVERSANNE M, SUNG H, et al. Global cancer statistics 2022: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries[J]. CA Cancer J Clin, 2024, 74(3): 229-263. DOI: 10.3322/caac.21834.
[2]
FERLAY J, COLOMBET M, SOERJOMATARAM I, et al. Cancer statistics for the year 2020: An overview[J/OL]. Int J Cancer, 2021 [2025-04-18]. https://onlinelibrary.wiley.com/doi/10.1002/ijc.33588. DOI: 10.1002/ijc.33588.
[3]
中华医学会肿瘤学分会早诊早治学组, 苗智峰, 徐忠法, 等. 胃癌早诊早治中国专家共识(2023版)[J]. 中华消化外科杂志, 2024(1): 23-36. DOI: 10.3760/cma.j.cn115610-20231207-00239.
Early Diagnosis and Treatment Group Chinese Society of Oncology of Chinese Medical Association, MIAO Z F, XU Z F, et al. Chinese expert consensus on early diagnosis and treatment of gastric cancer(2023 edition)[J]. Chin J Dig Surg, 2024(1): 23-36. DOI: 10.3760/cma.j.cn115610-20231207-00239.
[4]
中华人民共和国国家卫生健康委员会, 中华医学会肿瘤学分会, 顾晋, 等. 中国结直肠癌诊疗规范(2023年版)[J]. 中华外科杂志, 2023, 61(8): 617-644. DOI: 10.3760/cma.j.cn112139-20230603-00222.
National Health Commission of the People′s Republic of China, Chinese Society of Oncology of Chinese Medical Association, GU J, et al. Chinese protocol of diagnosis and treatment of colorectal cancer(2023 edition)[J]. Chin J Surg, 2023, 61(8): 617-644. DOI: 10.3760/cma.j.cn112139-20230603-00222.
[5]
LITJENS G, KOOI T, BEJNORDI B E, et al. A survey on deep learning in medical image analysis[J]. Med Image Anal, 2017, 42: 60-88. DOI: 10.1016/j.media.2017.07.005.
[6]
ESTEVA A, CHOU K, YEUNG S, et al. Deep learning-enabled medical computer vision[J/OL]. NPJ Digit Med, 2021, 4(1): 5 [2025-04-18]. https://pmc.ncbi.nlm.nih.gov/articles/PMC7794558/. DOI: 10.1038/s41746-020-00376-2.
[7]
BOHLENDER S, OKSUZ I, MUKHOPADHYAY A. A survey on shape-constraint deep learning for medical image segmentation[J]. IEEE Rev Biomed Eng, 2023, 16: 225-240. DOI: 10.1109/RBME.2021.3136343.
[8]
XUE H Z, YAO Y D, TENG Y Y. Multi-modal tumor segmentation methods based on deep learning: a narrative review[J]. Quant Imaging Med Surg, 2024, 14(1): 1122-1140. DOI: 10.21037/qims-23-818.
[9]
LEWIS J, CHA Y J, KIM J. Dual encoder-decoder-based deep polyp segmentation network for colonoscopy images[J/OL]. Sci Rep, 2023, 13(1): 1183 [2025-04-18]. https://pmc.ncbi.nlm.nih.gov/articles/PMC9867760/. DOI: 10.1038/s41598-023-28530-2.
[10]
YANG P, WU J M, LIU M Q, et al. Preoperative CT-based radiomics and deep learning model for predicting risk stratification of gastric gastrointestinal stromal tumors[J]. Med Phys, 2024, 51(10): 7257-7268. DOI: 10.1002/mp.17276.
[11]
TSANG B, GUPTA A, TAKAHASHI M S, et al. Applications of artificial intelligence in magnetic resonance imaging of primary pediatric cancers: a scoping review and CLAIM score assessment[J]. Jpn J Radiol, 2023, 41(10): 1127-1147. DOI: 10.1007/s11604-023-01437-8.
[12]
SOOMRO M H, COPPOTELLI M, CONFORTO S, et al. Automated segmentation of colorectal tumor in 3D MRI using 3D multiscale densely connected convolutional neural network[J/OL]. J Healthc Eng, 2019, 2019: 1075434 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/30838121. DOI: 10.1155/2019/1075434.
[13]
DEVI K G, RADHAKRISHNAN R. Automatic segmentation of colon in 3D CT images and removal of opacified fluid using cascade feed forward neural network[J/OL]. Comput Math Methods Med, 2015, 2015: 670739 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/25838838. DOI: 10.1155/2015/670739.
[14]
TAO J, LIU D, HU F B, et al. Development and validation of a computed tomography-based model for noninvasive prediction of the T stage in gastric cancer: multicenter retrospective study[J/OL]. J Med Internet Res, 2024, 26: e56851 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/39382960. DOI: 10.2196/56851.
[15]
GUO Z, LI X, HUANG H, et al. Deep learning-based image segmentation on multimodal medical imaging[J]. IEEE Trans Radiat Plasma Med Sci, 2019, 3(2): 162-169. DOI: 10.1109/trpms.2018.2890359.
[16]
YOUSEFIRIZI F, DECAZES P, AMYAR A, et al. AI-based detection, classification and prediction/prognosis in medical imaging: : towards radiophenomics[J]. PET Clin, 2022, 17(1): 183-212. DOI: 10.1016/j.cpet.2021.09.010.
[17]
CALVARESE M, CORBETTA E, CONTRERAS J, et al. Endomicroscopic AI-driven morphochemical imaging and fs-laser ablation for selective tumor identification and selective tissue removal[J/OL]. Sci Adv, 2024, 10(50): eado9721 [2025-04-18]. https://pmc.ncbi.nlm.nih.gov/articles/PMC11633757/. DOI: 10.1126/sciadv.ado9721.
[18]
XU J C, JING M J, WANG S M, et al. A review of medical image detection for cancers in digestive system based on artificial intelligence[J]. Expert Rev Med Devices, 2019, 16(10): 877-889. DOI: 10.1080/17434440.2019.1669447.
[19]
VAN DER VELDEN B H M, KUIJF H J, GILHUIJS K G A, et al. Explainable artificial intelligence (XAI) in deep learning-based medical image analysis[J/OL]. Med Image Anal, 2022, 79: 102470 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/35576821/. DOI: 10.1016/j.media.2022.102470.
[20]
ZUNAIR H, HAMZA A BEN. Sharp U-Net: Depthwise convolutional network for biomedical image segmentation[J/OL]. Comput Biol Med, 2021, 136: 104699 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/34348214/. DOI: 10.1016/j.compbiomed.2021.104699.
[21]
VALANARASU J M J, SINDAGI V A, HACIHALILOGLU I, et al. KiU-Net: overcomplete convolutional architectures for biomedical image and volumetric segmentation[J]. IEEE Trans Med Imag, 2022, 41(4): 965-976. DOI: 10.1109/TMI.2021.3130469.
[22]
LIU Z S, LV Q J, YANG Z D, et al. Recent progress in transformer-based medical image analysis[J/OL]. Comput Biol Med, 2023, 164: 107268 [2025-02-05]. https://pubmed.ncbi.nlm.nih.gov/37494821/. DOI: 10.1016/j.compbiomed.2023.107268.
[23]
LI W X, QU C Y, CHEN X X, et al. AbdomenAtlas: A large-scale, detailed-annotated, & multi-center dataset for efficient transfer learning and open algorithmic benchmarking[J/OL]. Med Image Anal, 2024, 97: 103285 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/37494821/. DOI: 10.1016/j.media.2024.103285.
[24]
PIRABAHARAN R, KHAN N. Interactive segmentation using U-Net with weight map and dynamic user interactions[J]. Annu Int Conf IEEE Eng Med Biol Soc, 2022, 2022: 4754-4757. DOI: 10.1109/EMBC48229.2022.9871361.
[25]
王云利. 基于迁移学习的胃部CT序列图像ROI区域提取[D]. 西安: 西安电子科技大学, 2013. DOI: 10.7666/d.D363549.
WANG Y L. Transfer learning based ROI region extraction in stomach CT image sequences[D]. Xi'an: Xidian University, 2013. DOI: 10.7666/d.D363549.
[26]
郑楷宜, 武毫, 袁文静, 等. 三维nnU-Net深度学习网络基于腹部CT图像自动分割结直肠癌的可行性研究[J]. 中华放射学杂志, 2024, 58(8): 829-835. DOI: 10.3760/cma.j.cn112149-20231231-00505.
ZHENG K Y, WU H, YUAN W J, et al. Feasibility study of three-dimensional nnU-Net deep learning network for automatic segmentation of colorectal cancer based on abdominal CT images[J]. Chin J Radiol, 2024, 58(8): 829-835. DOI: 10.3760/cma.j.cn112149-20231231-00505.
[27]
LI H M, LIU B, ZHANG Y T, et al. 3D IFPN: improved feature pyramid network for automatic segmentation of gastric tumor[J/OL]. Front Oncol, 2021, 11: 618496 [2025-04-18]. https://pmc.ncbi.nlm.nih.gov/articles/PMC8173118/. DOI: 10.3389/fonc.2021.618496.
[28]
李昭松. 基于半监督深度学习的直肠癌肿瘤自动分割方法研究[D]. 天津: 天津大学, 2021. DOI: 10.27356/d.cnki.gtjdu.2021.005043.
LI Z S. Research on automatic segmentation of rectal cancer based on semi-supervised deep learning[D]. Tianjin: Tianjin University, 2021. DOI: 10.27356/d.cnki.gtjdu.2021.005043.
[29]
HE J J, ZHANG M D, LI W C, et al. SaB-Net: Self-attention backward network for gastric tumor segmentation in CT images[J/OL]. Comput Biol Med, 2024, 169: 107866 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/38134751/. DOI: 10.1016/j.compbiomed.2023.107866.
[30]
HE D Z, ZHANG Y Y, HUANG H, et al. Dual-branch hybrid network for lesion segmentation in gastric cancer images[J/OL]. Sci Rep, 2023, 13(1): 6377 [2025-04-18]. https://pmc.ncbi.nlm.nih.gov/articles/PMC10115814/. DOI: 10.1038/s41598-023-33462-y.
[31]
LU D W, WU Y F, ACAR A, et al. ASSIST-U: a system for segmentation and image style transfer for ureteroscopy[J]. Healthc Technol Lett, 2023, 11(2/3): 40-47. DOI: 10.1049/htl2.12065.
[32]
冉昭, 简俊明, 王蒙蒙, 等. 基于全卷积神经网络的直肠癌肿瘤磁共振影像自动分割方法[J]. 北京生物医学工程, 2019, 38(5): 465-471. DOI: 10.3969/j.issn.1002-3208.2019.05.004.
RAN Z, JIAN J M, WANG M M, et al. Automatic segmentation method based on full convolution neural network for rectal cancer tumors in magnetic resonance image[J]. Beijing Biomed Eng, 2019, 38(5): 465-471. DOI: 10.3969/j.issn.1002-3208.2019.05.004.
[33]
马玉兰. 基于深度学习的结直肠癌患者肿瘤区域分割及KRAS基因状态预测[D]. 太原: 太原理工大学, 2022. DOI: 10.27352/d.cnki.gylgu.2022.001557.
MA Y L. Tumor region segmentation and KRAS gene status prediction in colorectal cancer patients based on deep learning[D]. Taiyuan: Taiyuan University of Technology, 2022. DOI: 10.27352/d.cnki.gylgu.2022.001557.
[34]
XUE Z L, LI P, ZHANG L, et al. Multi-modal co-learning for liver lesion segmentation on PET-CT images[J]. IEEE Trans Med Imaging, 2021, 40(12): 3531-3542. DOI: 10.1109/TMI.2021.3089702.
[35]
康帅, 奚峥皓, 黄陈, 等. 基于DPU-Net的直肠癌肿瘤分割与T分期研究[J]. 中国医学物理学杂志, 2023, 40(10): 1189-1197. DOI: 10.3969/j.issn.1005-202X.2023.10.001.
KANG S, XI Z H, HUANG C, et al. Rectal tumor segmentation and T staging based on DPU-net[J]. Chin J Med Phys, 2023, 40(10): 1189-1197. DOI: 10.3969/j.issn.1005-202X.2023.10.001.
[36]
LIU Y J, WANG J, WU C P, et al. Fovea-UNet: detection and segmentation of lymph node metastases in colorectal cancer with deep learning[J/OL]. Biomed Eng Online, 2023, 22(1): 74 [2025-04-18]. https://pmc.ncbi.nlm.nih.gov/articles/PMC10362618/. DOI: 10.1186/s12938-023-01137-4.
[37]
NAGARAJU G P, SANDHYA T, SRILATHA M, et al. Artificial intelligence in gastrointestinal cancers: diagnostic, prognostic, and surgical strategies[J/OL]. Cancer Lett, 2025, 612: 217461 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/39809357/. DOI: 10.1016/j.canlet.2025.217461.
[38]
MATTA S, LAMARD M, ZHANG P, et al. A systematic review of generalization research in medical image classification[J/OL]. Comput Biol Med, 2024, 183: 109256 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/39427426/. DOI: 10.1016/j.compbiomed.2024.109256.
[39]
ALI S, ZHOU F, BAILEY A, et al. A deep learning framework for quality assessment and restoration in video endoscopy[J/OL]. Med Image Anal, 2021, 68: 101900 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/33246229/. DOI: 10.1016/j.media.2020.101900.
[40]
JIANG Y, CHEN J, GONG C, et al. Deep-learning-based real-time and automatic target-to-background ratio calculation in fluorescence endoscopy for cancer detection and localization[J/OL]. Diagnostics (Basel), 2022, 12(9): 2031 [2025-04-18]. https://pmc.ncbi.nlm.nih.gov/articles/PMC9497969/. DOI: 10.3390/diagnostics12092031.
[41]
刘小琪. ME-NBI内镜图像胃部病变自动识别与分割方法的研究[D]. 重庆: 重庆大学, 2019. DOI: 10.27670/d.cnki.gcqdu.2019.001488.
LIU X Q. The study of automatic recognition and segmentaion methods of gastric lesion on ME-NBI endoscopic images[D]. Chongqing: Chongqing University, 2019. DOI: 10.27670/d.cnki.gcqdu.2019.001488.
[42]
CHEN K C, QIN T X, LEE V H, et al. Learning robust shape regularization for generalizable medical image segmentation[J]. IEEE Trans Med Imag, 2024, 43(7): 2693-2706. DOI: 10.1109/TMI.2024.3371987.
[43]
LI L Q, ZHAO X M, LU W, et al. Deep learning for variational multimodality tumor segmentation in PET/CT[J]. Neurocomputing (Amst), 2020, 392: 277-295. DOI: 10.1016/j.neucom.2018.10.099.
[44]
KLIMONT M, ORONOWICZ-JAŚKOWIAK A, FLIEGER M, et al. Deep learning-based segmentation and volume calculation of pediatric lymphoma on contrast-enhanced computed tomographies[J/OL]. J Pers Med, 2023, 13(2): 184 [2025-04-18]. https://pubmed.ncbi.nlm.nih.gov/36836418. DOI: 10.3390/jpm13020184.
[45]
CONSTANTINO C S, LEOCÁDIO S, OLIVEIRA F P M, et al. Evaluation of semiautomatic and deep learning-based fully automatic segmentation methods on [18F] FDG PET/CT images from patients with lymphoma: influence on tumor characterization[J]. J Digit Imaging, 2023, 36(4): 1864-1876. DOI: 10.1007/s10278-023-00823-y.
[46]
YUE Y T, LI N, XING W Y, et al. Condition control training-based ConVMLP-ResU-Net for semantic segmentation of esophageal cancer in 18F-FDG PET/CT images[J]. Phys Eng Sci Med, 2023, 46(4): 1643-1658. DOI: 10.1007/s13246-023-01327-3.
[47]
SHELLER M J, EDWARDS B, REINA G A, et al. Federated learning in medicine: facilitating multi-institutional collaborations without sharing patient data[J/OL]. Sci Rep, 2020, 10(1): 12598 [2025-04-18]. https://pmc.ncbi.nlm.nih.gov/articles/PMC7387485/. DOI: 10.1038/s41598-020-69250-1.

上一篇 基于CT和MRI及其相关技术预测胃癌新辅助化疗的研究进展
下一篇 多模态MRI在评估宫颈癌治疗及预后相关生物标志物中的应用进展
  
诚聘英才 | 广告合作 | 免责声明 | 版权声明
联系电话:010-67113815
京ICP备19028836号-2