分享:
分享到微信朋友圈
X
临床研究
超分辨率重建技术提高基于T2WI图像的深度学习预测子宫内膜癌淋巴脉管间隙浸润的诊断效能
易芹芹 王颖 邹思思 龚静山

Cite this article as: YI Q Q, WANG Y, ZOU S S, et al. Super-resolution reconstruction technique enhances the diagnostic efficacy of deep learning-based prediction of lymphvascular space invasion in endometrial cancer[J]. Chin J Magn Reson Imaging, 2025, 16(10): 83-88.本文引用格式:易芹芹, 王颖, 邹思思, 等. 超分辨率重建技术提高基于T2WI图像的深度学习预测子宫内膜癌淋巴脉管间隙浸润的诊断效能[J]. 磁共振成像, 2025, 16(10): 83-88. DOI:10.12015/issn.1674-8034.2025.10.013.


[摘要] 目的 评估超分辨率重建技术是否能提高基于T2WI图像的深度学习预测子宫内膜癌淋巴脉管间隙浸润(lymphvascular space invasion, LVSI)的诊断效能。材料与方法 回顾性纳入406例病例,按照8∶2随机划分为训练集(n=325例)和验证集(n=81例)。我们对常规盆腔矢状位T2WI图像进行超分辨率重建,得到超分辨率T2WI(super high resolution T2WI, SRT2)图像。分别基于常规T2WI及SRT2图像进行深度学习建模,以预测子宫内膜癌LVSI状态。随后,在验证集中对两组图像构建的模型进行验证,对比两个模型在训练集及验证集的诊断效能。以病理诊断为金标准,评估指标包括:曲线下面积(area under the curve, AUC),敏感度、特异度,并采用DeLong检验比较模型差异。结果 在训练集及验证集中,基于常规T2WI图像的深度学习模型AUC(95%置信区间)分别为0.792(0.733~0.851)、0.759(0.649~0.870),敏感度分别为77.50%、68.18%,特异度分别为77.08%、80.67%;基于SRT2图像的深度学习模型AUC(95%置信区间)分别为0.897(0.852~0.943)、0.899(0.819~0.980),敏感度分别为87.80%、86.40%,特异度分别为88.45%、89.20%。两个模型在训练集及验证集中的差异均有统计学意义(P<0.05),基于SRT2的深度学习模型表现更优。结论 超分辨率重建技术有望通过提高图像质量进而提升深度学习术前预测子宫内膜癌LVSI的诊断效能。
[Abstract] Objective To evaluate whether super-resolution reconstruction technology can improve the diagnostic efficacy of deep learning in predicting lymphovascular space invasion (LVSI) in endometrial cancer.Materials and Methods This retrospective study enrolled 406 patients randomly split into training (n = 325) and validation (n = 81) sets (8∶2 ratio). Super-resolution reconstruction was performed on conventional T2-weighted imaging (T2WI) to obtain super high-resolution T2WI (SRT2). Deep learning models were developed based on both conventional T2WI and SRT2 images to predict LVSI status in endometrial cancer. The models were subsequently validated in validation set, and their diagnostic performance was compared across the training and validation sets. Using pathological diagnosis as the gold standard, the evaluation metrics included the area under the curve (AUC), sensitivity, and specificity, with model differences compared using DeLong's test.Results In both the training and validation sets, the deep learning model based on conventional T2WI demonstrated AUC values (95% confidence interval) of 0.792 (0.733 to 0.851) and 0.759 (0.649 to 0.870), with sensitivities of 77.50% and 68.18%, and specificities of 77.08% and 80.67%, respectively. The model utilizing SRT2 achieved AUCs of 0.897 (0.852 to 0.943) and 0.899 (0.819 to 0.980), sensitivities of 87.80% and 86.40%, and specificities of 88.45% and 89.20%. Statistically significant differences between the two models were observed in both sets (P < 0.05), indicating superior performance of the SRT2-based deep learning model.Conclusions Super-resolution reconstruction technology has the potential to enhance the diagnostic efficacyof preoperative prediction of LVSI in endometrial cancer by improving image quality.
[关键词] 子宫内膜癌;深度学习;超分辨率重建;磁共振成像;淋巴血管浸润;影像组学;术前预测
[Keywords] endometrial cancer;deep learning;super-resolution reconstruction;magnetic resonance imaging;lymphovascular space invasion;radiomics;preoperative prediction

易芹芹 1   王颖 1   邹思思 2   龚静山 1*  

1 深圳市人民医院(暨南大学第二临床医学院,南方科技大学第一附属医院)放射科,深圳 518000

2 深圳市第二人民医院放射科,深圳 518000

通信作者:龚静山,E-mail:jshgong@sina.com

作者贡献声明:龚静山设计本研究的具体方案,并对稿件重要内容进行了修改,获得了深圳市科技计划项目的资助;易芹芹收集、分析和解释本研究数据,起草和撰写稿件;王颖,邹思思收集、分析和解释本研究数据,并对稿件重要内容进行了修改;全体作者都同意发表最后的修改稿,同意对本研究的所有方面负责,确保本研究的准确性和诚信。


基金项目: 深圳市科技计划项目 JCYJ20230807112009019
收稿日期:2025-04-22
接受日期:2025-09-14
中图分类号:R445.2  R737.33 
文献标识码:A
DOI: 10.12015/issn.1674-8034.2025.10.013
本文引用格式:易芹芹, 王颖, 邹思思, 等. 超分辨率重建技术提高基于T2WI图像的深度学习预测子宫内膜癌淋巴脉管间隙浸润的诊断效能[J]. 磁共振成像, 2025, 16(10): 83-88. DOI:10.12015/issn.1674-8034.2025.10.013.

0 引言

       子宫内膜癌是女性最常见的恶性肿瘤之一。近年来,由于人们生活习惯及饮食结构改变,我国子宫内膜癌发生率明显上升且呈年轻化趋势,在部分城市发病率已超过宫颈癌,成为生殖系统恶性肿瘤第一位[1, 2]。淋巴脉管间隙浸润(lymphvascular space invasion, LVSI)是子宫内膜癌的重要预后因素之一,其存在与肿瘤的侵袭性、复发风险及生存率密切相关[3, 4, 5]。目前,临床上诊断子宫内膜癌LVSI主要依赖于对手术后的标本进行病理检测,这种方法不仅具有创伤性,而且耗时较长[6],所以临床亟需一种无创、快速而又准确的检测方法。随着医学影像技术的不断发展,磁共振成像(magnetic resonance imaging, MRI)因其良好的空间分辨率在盆腔病变诊断中展现出了明显的优势。尽管MRI无法直接观察到LVSI的状态,但既往研究表明,通过人工智能机器学习技术识别与LVSI高度相关的特征,有望实现术前无创诊断,为患者提供更加便捷、准确的诊断服务[7]。然而,现有研究多局限于传统的从图片存档与通信系统(picture archive and communication system, PACS)直接导出的图像[7, 8],而基于这些图像的机器学习模型在推广过程中,可能受制于机器或扫描条件,从而存在显示不清的情况[5],这在一定程度上限制了影像诊断的准确性和可靠性[9, 10],限制了机器学习模型的泛化能力。

       近年来,超分辨率重建技术在医学影像中的应用日益广泛,尤其是在提高影像质量和诊断效能方面表现出了显著的优势,该技术能够将低分辨率的图片转化为高分辨率甚至超高分辨率的图像,使图像细节更加清晰,从而有助于医生更准确地观察和评估病变区域的特征[11, 12]。多项研究表明,基于深度学习的超分辨率重建技术可以显著改善MRI图像的分辨率,进而提高诊断的准确性[13, 14]。这种技术通过增强影像的细节信息,使医生能够更清晰地观察到病变区域的特征[15]。此外,超分辨率重建技术在其他类型的医学影像中也展现出了类似的应用前景[15, 16]。例如,在冠状动脉CT血管造影和单光子发射计算机断层扫描中,该技术也成功地提高了影像的分辨率和质量,进一步证明了其在医学影像领域的广泛适用性和潜在价值[17, 18]。但现有研究多局限于超分辨率重建技术提高图像质量的单一尺度分析,尚未有研究将超分辨率重建技术与深度学习融合来解决术前预测子宫内膜癌LVSI状态这一临床实际问题。这一空白的研究领域,亟待我们进一步探索。本研究首次将超分辨率重建技术与深度学习预测模型融合,探讨基于T2WI图像的超分辨率重建技术在提高子宫内膜癌LVSI诊断效能方面的应用价值,以期为临床诊断提供更加准确、可靠的依据。

1 材料与方法

1.1 研究对象

       本研究遵守《赫尔辛基宣言》,经深圳市人民医院伦理委员会审核批准,免除受试者知情同意,批准文号:LLKY202401802。回顾性收集2010年1月至2024年2月深圳市人民医院经手术后病理确诊的子宫内膜癌患者病例共406例。将病例按照8∶2随机划分为训练集(n=325例)和验证集(n=81例)。纳入标准:(1)所有子宫内膜癌的组织学类型均为子宫内膜样腺癌;(2)在治疗前两周内进行了包含T2加权成像(T2 weighted imaging, T2WI)的磁共振检查;(3)均在深圳市人民医院手术且有完整的病理数据。排除标准:(1)MRI序列不完整,常规不压脂矢状位T2WI序列缺失;(2)MRI上病灶不可见或最大直径<1 cm;(3)MRI图像有伪影。LVSI阳性定义为在术后标本中任意一张病理切片中观察到大于或等于5个明确的淋巴血管浸润现象;若未达到此标准,则视为阴性。所有的切片结果均由两位病理科医生(分别具有10年和15年妇科病理阅片经验)会商决定。本研究还从病例系统中收集了患者年龄、糖类抗原125(carbohydrate antigen 125, CA125)及活检的病理分级。

1.2 MRI数据

       本研究的盆腔T2WI序列采用Siemens Avanto 1.5 T磁共振扫描仪进行采集。扫描方位为矢状位,具体扫描参数如下:重复时间4000 ms,回波时间109 ms,层厚4 mm,层间距0.8 mm,采集矩阵320×320,视野250 mm×250 mm。将T2WI的图像以DICOM格式从PACS中下载。

1.3 超分辨率重建技术

       运用一种基于生成对抗网络(generative adversarial network, GAN)的3D超分辨率重建方法对高分辨率T2WI(high resolution T2 weighted imaging, HRT2)图像进行重建,得到超分辨率T2WI(super high resolution T2WI, SRT2)图像[19]。GAN包含生成器与判别器,生成器负责从低分辨率图像生成高分辨率图像,而判别器则区分生成图像与真实图像,二者通过对抗训练共同优化,使生成器能够准确学习低分辨率到高分辨率图像的映射关系。本研究中用于训练3D超分辨率重建技术的数据集包含数百万张医学图像,图像经过预处理去除噪声和伪影,并标准化强度值,然后将图像分为低分辨率和高分辨率对,其中低分辨率图像通过下采样高分辨率图像获得。GAN模型的损失函数综合了梯度损失(保持边缘细节)、L1损失(像素级精度)和感知损失(保持高层次特征一致性),确保生成图像不仅在像素值上接近真实高分辨率图像,还在视觉感知上高度相似[20, 21, 22, 23]。此方法实现了4倍分辨率提升,像素由1 mm×1 mm×1 mm转换为1 mm×1 mm×0.25 mm。超分辨率重建流程及重建前后图像对比见图1

图1  超分辨率重建流程(1A)及重建前后图像(1B)对比。矢状位GAN超分辨率T2WI(1B,右图)在视觉上等同于原始HRT2图像(1B,左图),但具有更低的模糊度、更精细的纹理特征和更锐利的边缘清晰度。GAN:生成对抗网络;HRT2:高分辨率T2WI。
Fig. 1  Super resolution reconstruction process (1A) and comparison of pre- and post- reconstruction images (1B). The sagittal GAN super-resolution T2-weighted image (1B, right figure) is visually nearly identical to the original HRT2 image (1B, left figure), while demonstrating reduced blurring, more refined textural details, and enhanced edge sharpness. GAN: generative adversarial network; HRT2: high resolution T2WI.

1.4 深度学习

1.4.1 图像预处理

       分别对超分辨率重建前后的图像进行预处理。首先,使用3D Slicer软件(版本5.6.2)中的N4 ITK工具包对原始图像应用了N4偏置场校正,这显著提高了各种MRI扫描的图像强度均匀性[24, 25]。接着,利用三次插值法标准化图像尺寸,得到了1 mm×1 mm×1 mm体素大小。

1.4.2 图像分割

       使用ITK-SNAP(版本3.8.0)逐层手动勾画感兴趣区(region of interest, ROI)。由两位放射科医师(分别拥有6年和13年妇科MRI阅片经验)分别进行勾画,有差异时由一位拥有超过20年经验的资深放射科医师解决。

1.4.3 ROI选择、模型训练和特征提取

       选择分割图像的最大层面作为ROI[26]。为了简化计算过程并减少算法评估过程中的背景噪声,我们仅保留了包围ROI的最小边界矩形。在训练阶段应用了实时数据增强方法,如随机裁剪、水平和垂直翻转。

       不同的患者群体表现出变异性。在本研究中,为了确保模型在各种患者群体中的有效性,我们采用了迁移学习方法,其中关键点为仔细调整学习率以促进跨不同数据集的泛化。其他重要的超参数包括使用随机梯度下降作为优化器和softmax交叉熵作为损失函数[27]。在完成Resnet50深度学习模型的训练后,从平均池化层提取特征作为深度学习特征。为了解决深度学习模型的复杂性,采用主成分分析将T2WI序列中提取的2048个深度学习特征减少到更易于管理的512维。

1.4.4 特征筛选、模型构建

       首先,对所有MRI序列使用Z-score方法进行标准化,以最小化数据变异性。使用组内相关系数(intra-class correlation coefficients, ICC)来评估不同放射科医生或MRI扫描仪提取的连续变量的一致性,保留ICC≥0.9的特征以供进一步研究。接着,计算每对特征之间的Spearman相关系数,并移除相关系数≥0.9的特征对。然后,采用贪婪递归删除策略及最小绝对收缩和选择算子(least absolute shrinkage and selection operator, LASSO)逻辑回归,迭代地移除当前集中冗余度最高的特征,并识别模型构建中最相关的特征。经过这些步骤后,剩余的特征被选为稳健、可预测且非冗余的特征。这些最终特征用于构建模型,确保其全面代表数据集,同时最小化冗余并增强可解释性。研究流程见图2

图2  研究流程图。
Fig. 2  Study workflow flowchart.

1.5 统计学分析

       所有数据均使用Python(版本3.7.12)和Medcalc(版本23.0.2)的统计软件包进行评估。连续变量以均值±标准差描述,分类变量则以频率和百分比呈现。连续变量的正态性或非正态性通过Kolmogorov-Smirnov检验确定,方差齐性通过Levene检验评估。组间连续变量的差异比较采用Mann-Whitney U检验或Student's t检验,而分类变量的差异比较则采用卡方检验或Fisher精确检验。双尾P<0.05为差异具有统计学意义。模型性能通过受试者工作特征曲线下面积(area under the curve, AUC)进行评估。DeLong检验用于确定不同模型的AUC之间是否存在显著差异。

2 结果

2.1 临床资料

       在406例符合纳入标准的病例中,LVSI阳性共99例(24.38%)。在训练集、验证集中,年龄在LVSI阳性及阴性组差异均没有统计学意义(P值分别为0.740和0.482),CA125、病理分级及肌层浸润深度在LVSI阳性及阴性组差异均有统计学意义(P均<0.05)。年龄、CA125、病理分级、肌层浸润深度在训练集和验证集之间差异均没有统计学意义(P均>0.05)。详见表1

表1  临床资料
Tab. 1  Clinical data

2.2 深度学习特征筛选及建模

       对训练集患者的HRT2图像中提取的特征进行上述降维处理后,共有22个特征纳入模型。对训练集患者的SRT2图像中提取的特征进行上述降维处理后,共有49个特征纳入模型。决策曲线分析(decision curve analysis, DCA)表明基于SRT2图像的深度学习模型比基于HRT2的深度学习模型有更大临床获益。如图3所示。

图3  基于HRT2与SRT2图像的深度学习模型特征可视化与临床决策曲线分析。3A:基于HRT2图像的深度学习模型降维特征分布;3B:基于HRT2图像的深度学习模型的决策曲线分析;3C:基于SRT2图像的深度学习模型降维特征分布;3D:基于SRT2图像的深度学习模型的决策曲线分析。HRT2:高分辨率T2WI;SRT2:超分辨率T2WI。
Fig. 3  Feature visualization and decision curve analysis of the deep learning models based on HRT2 and SRT2 images. 3A: Dimension-reduced feature distribution of the deep learning model based on HRT2 images; 3B: Decision curve analysis of the deep learning model based on HRT2 images; 3C: Dimension-reduced feature distribution of the deep learning model based on SRT2 images; 3D: Decision curve analysis of the deep learning model based on SRT2 images. HRT2: high resolution T2WI; SRT2: super high resolution T2WI.

2.3 模型对比

       训练集及验证集中,基于SRT2深度学习模型的AUC高于基于HRT2的深度学习模型,且具有更高的敏感度和特异度,DeLong检验两者差异均有统计学意义(P值分别为0.006和0.045)。如表2图4

图4  基于HRT2与SRT2图像的深度学习模型预测LVSI的ROC曲线。4A:训练集;4B:验证集。HRT2:高分辨率T2WI;SRT2:超分辨率T2WI;LVSI:淋巴脉管间隙浸润;ROC:受试者工作特征。
Fig. 4  Comparison of ROC curves between the HRT2-based and SRT2-based deep learning models for predicting LVSI. 4A: Training set; 4B: Validation set. ROC: receiver operating characteristic; HRT2: high resolution T2WI; SRT2: super high resolution T2WI; LVSI: lymphvascular space invasion.
表2  训练集及验证集ROC曲线分析
Tab. 2  Comparative analysis of ROC curves in training and validation sets

3 讨论

       本研究首次在较大规模、较长期的回顾性病例中开发并验证了基于超分辨率重建技术构建的深度学习模型预测子宫内膜癌LVSI的状态,结果表明基于超分辨率重建技术后的T2WI图像构建的深度学习模型较常规T2WI图像构建的深度学习模型具有更好的诊断效能,表明超分辨率重建技术在提高医学影像质量方面具有显著优势,能够更好地捕捉到微小的病理特征,与深度学习模型结合有助于术前更精确诊断子宫内膜癌LVSI状态,便于预后预测及早期干预。

3.1 深度学习突破传统影像组学在子宫内膜癌LVSI预测中的瓶颈

       MRI凭借其高软组织分辨力和多参数成像能力,能够较清晰显示子宫内膜癌的大小、位置及与周围组织的关系。深度学习技术的引入为MRI在子宫内膜癌的诊断提供了新的契机[28, 29]。LVSI是影响子宫内膜癌预后的重要独立危险因素。基于传统影像组学MRI可以术前无创预测LVSI[30],但是难以捕捉图像中的复杂非线性关系和高阶统计特征,准确性和可靠性受限[31]。深度学习可以弥补传统影像组学在预测子宫内膜癌LVSI方面的局限性。何月明等[32]研究发现,深度学习模型在预测LVSI方面表现出色,显著优于单独使用影像组学或临床特征的方法。然而,需要指出的是,无论是传统的影像组学方法还是前述基于原始MRI图像的深度学习模型,其性能都不可避免地受到MRI原始图像质量固有局限性的制约。子宫内膜癌LVSI的诊断依赖于识别肿瘤边缘微小的脉管浸润结构,这对图像的空间分辨率和清晰度提出了极高要求。

3.2 基于GAN的超分辨率重建技术突破图像质量瓶颈并赋能深度学习预测

       本研究将基于GAN的超分辨率重建技术与深度学习预测模型相结合,旨在克服传统影像组学和单纯基于原始图像的深度学习模型在图像质量方面的限制。传统超分辨率重建方法是采用插值方法(如最近邻插值、双线性插值等),虽然简单,但难以恢复出图像的高频细节,容易出现模糊和伪影[33]。本研究所使用的超分辨率重建技术是基于GAN提出的。GAN作为一种深度学习技术,通过训练从低分辨率图像到高分辨率图像的映射关系,生成了视觉效果更逼真的高分辨率图像,能够有效克服硬件限制,提高图像质量[34]。这一技术在医学图像处理中具有重要意义。在肺部CT影像重建中,实验结果显示基于GAN的超分辨率重建技术使支气管壁的轮廓清晰度提升23%,磨玻璃结节内部血管走行的可视化率提高至92%,显著优于双线性插值(78%)和双三次插值(85%)的表现[35]。有研究者提出了Capsule GAN模型,通过胶囊网络捕捉前列腺解剖的空间关系,在T2加权像上实现0.89±0.04的峰值信噪比率提升,有助于微小癌灶识别[36]。值得注意的是,在妇科肿瘤领域,超分辨率技术也展现出巨大潜力。在宫颈癌的MRI诊断中,研究者提出的超分辨率重建算法不仅有效提升了图像质量,还在医学分割任务中表现出色,为临床诊断和图像分析提供了可靠的依据[37]。这项研究有力地证明对于妇科肿瘤,超分辨率技术能够有效提升图像质量并直接改善后续诊断任务的精度。考虑到子宫内膜癌与宫颈癌在解剖位置、常见成像伪影(如肠蠕动、呼吸运动)以及对高分辨率清晰显示微小病理结构的需求方面存在高度相似性,我们合理推断超分辨率技术在子宫内膜癌影像分析中具有同等重要的应用价值和潜力。我们的核心实验设计直接对比了基于常规T2WI图像与基于超分辨率重建后T2WI图像构建两种深度学习模型在预测LVSI状态上的性能差异,结果显示,训练集及验证集中超分辨率重建图像显著提升了模型的诊断效能,验证了超分辨率技术能够更好地捕捉到与LVSI相关的微小的病理特征的优势。超分辨率技术通过主动提升输入图像质量,有效克服了图像分辨率/清晰度不足对模型识别微小LVSI特征的瓶颈限制,从而实现了更精确的术前LVSI状态预测,为预后评估和个体化治疗决策提供了更可靠的影像学依据。

3.3 本研究的局限性

       首先,本研究基于回顾性分析,缺乏前瞻性临床验证及多中心外部验证,其泛化性能有待进一步研究。其次,基于超分重建的方法需迭代优化梯度先验等约束条件,处理时间较长,计算负荷较大。最后,目前多学科融合趋势明显,本研究只是纳入了MRI图像,未来可融合超声或病理图像进一步研究。

4 结论

       综上所述,本研究利用超分辨率重建技术后得到的图像构建深度学习模型,该模型在术前预测子宫内膜癌LVSI状态方面胜过基于常规T2WI图像构建的深度学习模型。这一发现强调了超分辨率重建技术在改善医学图像质量方面的巨大潜力,与机器学习结合,有望提高子宫内膜癌LVSI术前评估的准确性。

[1]
韩赢, 孙美玉. 子宫内膜癌淋巴脉管间隙浸润的MRI研究进展[J]. 磁共振成像, 2024, 15(7): 216-220, 234. DOI: 10.12015/issn.1674-8034.2024.07.036.
HAN Y, SUN M Y. Advances in MRI studies of lymphvascular space invasion in endometrial carcinoma[J]. Chin J Magn Reson Imag, 2024, 15(7): 216-220, 234. DOI: 10.12015/issn.1674-8034.2024.07.036.
[2]
陈晓军, 张剑峰, 陆雯, 等. 子宫内膜癌手术治疗质量控制与评价标准中国专家共识(2024年版)[J]. 中国实用妇科与产科杂志, 2024, 40(6): 626-637. DOI: 10.19538/j.fk2024060113.
CHEN X J, ZHANG J F, LU W, et al. Chinese expert consensus on quality control and quality indicators forsurgical treatment of endometrial carcinoma (2024 edition)[J]. Chin J Pract Gynecol Obstet, 2024, 40(6): 626-637. DOI: 10.19538/j.fk2024060113.
[3]
TORTORELLA L, RESTAINO S, ZANNONI G F, et al. Substantial lymph-vascular space invasion (LVSI) as predictor of distant relapse and poor prognosis in low-risk early-stage endometrial cancer[J/OL]. J Gynecol Oncol, 2021, 32(2): e11 [2025-02-10]. https://pubmed.ncbi.nlm.nih.gov/33470061. DOI: 10.3802/jgo.2021.32.e11.
[4]
林颖欣, 张月华, 张淦梅, 等. 免疫组化联合半定量法检测淋巴脉管间隙浸润在早期子宫内膜癌的预后价值[J]. 陆军军医大学学报, 2022, 44(13): 1370-1377. DOI: 10.16016/j.2097-0927.202112273.
LIN Y X, ZHANG Y H, ZHANG G M, et al. Prognostic value of lymphovascular space invasion evaluated by immunohistochemistry and stratification with a semi-quantitative scoring system for early-stage endometrial cancer[J]. J Army Med Univ, 2022, 44(13): 1370-1377. DOI: 10.16016/j.2097-0927.202112273.
[5]
LEO E, STANZIONE A, MIELE M, et al. Artificial intelligence and radiomics for endometrial cancer MRI: exploring the whats, whys and hows[J/OL]. J Clin Med, 2023, 13(1): 226 [2025-02-10]. https://pubmed.ncbi.nlm.nih.gov/38202233. DOI: 10.3390/jcm13010226.
[6]
LONG L, LIU M L, DENG X J, et al. Tumor stiffness measurement at multifrequency MR elastography to predict lymphovascular space invasion in endometrial cancer[J/OL]. Radiology, 2024, 311(3): e232242 [2025-02-10]. https://pubmed.ncbi.nlm.nih.gov/38832881. DOI: 10.1148/radiol.232242.
[7]
LIU D, HUANG J Y, ZHANG Y F, et al. Multimodal MRI-based radiomics models for the preoperative prediction of lymphovascular space invasion of endometrial carcinoma[J/OL]. BMC Med Imaging, 2024, 24(1): 252 [2025-02-13]. https://pubmed.ncbi.nlm.nih.gov/39304802. DOI: 10.1186/s12880-024-01430-1.
[8]
CHEN J Y, WANG X R, LV H Y, et al. Development and external validation of a clinical-radiomics nomogram for preoperative prediction of LVSI status in patients with endometrial carcinoma[J]. J Cancer Res Clin Oncol, 2023, 149(15): 13943-13953. DOI: 10.1007/s00432-023-05044-y.
[9]
TSHALIBE P, ADRIGWE J, LUCAS S. Clinicians' perspective of picture archiving and communication systems at Charlotte Maxeke Johannesburg Academic Hospital[J/OL]. SA J Radiol, 2023, 27(1): 2578 [2025-02-13]. https://pubmed.ncbi.nlm.nih.gov/37292419. DOI: 10.4102/sajr.v27i1.2578.
[10]
周敏, 张敏鸣, 肖文波. PACS图像显示器质量控制的初步研究[J]. 实用放射学杂志, 2005(9): 977-979, 990. DOI: 10.3969/j.issn.1002-1671.2005.09.024.
ZHOU M, ZHANG M M, XIAO W B. Preliminary research on quality control of PACS image display device[J]. J Pract Radiol, 2005(9): 977-979, 990. DOI: 10.3969/j.issn.1002-1671.2005.09.024.
[11]
ZHANG M, XIA C C, TANG J, et al. Evaluation of high-resolution pituitary dynamic contrast-enhanced MRI using deep learning-based compressed sensing and super-resolution reconstruction[J]. Eur Radiol, 2025, 35(10): 5922-5934. DOI: 10.1007/s00330-025-11574-5.
[12]
郑秋富, 金燕, 姜智伟, 等. 基于反投影回归网络的医学图像超分辨率重建[J]. 计算机辅助设计与图形学学报, 2024, 36(12): 1968-1977. DOI: 10.3724/SP.J.1089.2024.20113.
ZHENG Q F, JIN Y, JIANG Z W, et al. Medical image super-resolution reconstruction based on back projection regression network[J]. J Comput Aided Des Comput Graph, 2024, 36(12): 1968-1977. DOI: 10.3724/SP.J.1089.2024.20113.
[13]
LI Z Y, LI Z H, LI H X, et al. Enhance the Image: Super Resolution using Artificial Intelligence in MRI[M/OL]. Arxiv, 2024 [2025-02-15]. https://arxiv.org/pdf/2406.13625.
[14]
OSCANOA J A, MIDDIONE M J, ALKAN C, et al. Deep learning-based reconstruction for cardiac MRI: a review[J/OL]. Bioengineering (Basel), 2023, 10(3): 334 [2025-02-15]. https://pubmed.ncbi.nlm.nih.gov/36978725. DOI: 10.3390/bioengineering10030334.
[15]
BIAN Y Y, WANG L, LI J, et al. Quantitative ischemic lesions of portable low-field strength MRI using deep learning-based super-resolution[J]. Stroke, 2025, 56(7): 1843-1852. DOI: 10.1161/STROKEAHA.124.050540.
[16]
ÇELIK B, MIKAEILI M, GENÇ M Z, et al. Can super resolution via deep learning improve classification accuracy in dental radiography [J]. Dentomaxillofac Radiol, 2025, 54(6): 473-487. DOI: 10.1093/dmfr/twaf029.
[17]
TAKAFUJI M, KITAGAWA K, MIZUTANI S, et al. Super-resolution deep learning reconstruction for improved image quality of coronary CT angiography[J/OL]. Radiol Cardiothorac Imaging, 2023, 5(4): e230085 [2025-02-25]. https://pubmed.ncbi.nlm.nih.gov/37693207. DOI: 10.1148/ryct.230085.
[18]
CHENG Z B, XIE L L, FENG C X, et al. Super-resolution acquisition and reconstruction for cone-beam SPECT with low-resolution detector[J/OL]. Comput Methods Programs Biomed, 2022, 217: 106683 [2025-02-25]. https://pubmed.ncbi.nlm.nih.gov/35150999. DOI: 10.1016/j.cmpb.2022.106683.
[19]
OTA J, UMEHARA K, KERSHAW J, et al. Super-resolution generative adversarial networks with static T2*WI-based subject-specific learning to improve spatial difference sensitivity in fMRI activation[J/OL]. Sci Rep, 2022, 12: 10319 [2025-02-25]. https://pubmed.ncbi.nlm.nih.gov/35725788. DOI: 10.1038/s41598-022-14421-5.
[20]
CHEN S, MA D, LEE S, et al. Segmentation-guided domain adaptation and data harmonization of multi-device retinal optical coherence tomography using cycle-consistent generative adversarial networks[J/OL]. Comput Biol Med, 2023, 159: 106595 [2025-03-10]. https://pubmed.ncbi.nlm.nih.gov/37087780. DOI: 10.1016/j.compbiomed.2023.106595.
[21]
HSU W W, GUO J M, CHEN C Y, et al. Fall detection with the spatial-temporal correlation encoded by a sequence-to-sequence denoised GAN[J/OL]. Sensors (Basel), 2022, 22(11): 4194 [2025-03-10]. https://pubmed.ncbi.nlm.nih.gov/35684812. DOI: 10.3390/s22114194.
[22]
MAHMOUD M, KANG H S. GANMasker: A two-stage generative adversarial network for high-quality face mask removal[J/OL]. Sensors, 2023, 23(16): 7094 [2025-03-15]. https://pubmed.ncbi.nlm.nih.gov/37631631. DOI: 10.3390/s23167094.
[23]
蒋正. 基于改进损失函数的生成对抗网络研究[D]. 武汉: 武汉科技大学, 2023. DOI: 10.27380/d.cnki.gwkju.2023.000374.
JIANG Z. Research on generative adversarial networks based on improved loss functions[D]. Wuhan: Wuhan University of Science and Technology, 2023. DOI: 10.27380/d.cnki.gwkju.2023.000374.
[24]
ELMEZAIN M, MAHMOUD A, MOSA D T, et al. Brain tumor segmentation using deep capsule network and latent-dynamic conditional random fields[J/OL]. J Imaging, 2022, 8(7): 190 [2025-03-15]. https://pubmed.ncbi.nlm.nih.gov/35877634. DOI: 10.3390/jimaging8070190.
[25]
DOVROU A, NIKIFORAKI K, ZARIDIS D, et al. A segmentation-based method improving the performance of N4 bias field correction on T2weighted MR imaging data of the prostate[J]. Magn Reson Imaging, 2023, 101: 1-12. DOI: 10.1016/j.mri.2023.03.012.
[26]
郭一君, 尹蕊, 韩琚琪,等. 瘤内联合瘤周动态对比增强MRI乳腺癌腋窝淋巴结转移深度学习预测模型研究[J]. 实用放射学杂志, 2024.40(6): 907-912. DOI: 10.3969/j.issn.1002-1671.2024.06.011.
GUO Y J, YIN R, HAN J Q, et al. Research on the deep learning model based on the combination of intratumoral and peritumoral dynamic contrast-enhanced MRI for predicting axillary lymph node metastasis in breast cancer[J]. Journal of Practical Radiology, 2024.40(6): 907-912. DOI: 10.3969/j.issn.1002-1671.2024.06.011.
[27]
SUN J H, YANG Y, XUN G X, et al. Scheduling hyperparameters to improve generalization: from centralized SGD to asynchronous SGD[J/OL]. ACM Trans Knowl Discov Data, 2023.17(2): 1-37. DOI: 10.1145/3544782.
[28]
HEO T, LEE N K, KIM S, et al. Deep learning reconstruction of diffusion-weighted imaging with single-shot echo-planar imaging in endometrial cancer: a comparison with multi-shot echo-planar imaging[J/OL]. Abdom Radiol, 2025: [2025-05-07]. https://pubmed.ncbi.nlm.nih.gov/40249551. DOI: 10.1007/s00261-025-04955-3.
[29]
WANG Z C, HU Y, CAI J, et al. Potential value of novel multiparametric MRI radiomics for preoperative prediction of microsatellite instability and Ki-67 expression in endometrial cancer[J/OL]. Sci Rep, 2025, 15: 3226 [2025-05-07]. https://pubmed.ncbi.nlm.nih.gov/39863695. DOI: 10.1038/s41598-025-87966-w.
[30]
彭永佳, 刘晓雯, 唐雪, 等. 基于多参数MRI影像组学的列线图术前预测子宫内膜癌淋巴血管间隙侵犯的研究[J]. 磁共振成像, 2022, 13(7): 61-67. DOI: 10.12015/issn.1674-8034.2022.07.011.
PENG Y J, LIU X W, TANG X, et al. Preoperative predicting lymphov-ascular space invasion in endometrial carcinoma by nomogram based on mpMRI radiomics[J]. Chin J Magn Reson Imag, 2022, 13(7): 61-67. DOI: 10.12015/issn.1674-8034.2022.07.011.
[31]
冯源, 兰晓莉. 影像组学介绍[J]. 中华核医学与分子影像杂志, 2023, 43(1): 55-60. DOI: 10.3760/cma.j.cn321828-20211130-00427.
FENG Y, LAN X L. Introduction to imaging genomics[J]. Chin J Nucl Med Mol Imag, 2023, 43(1): 55-60. DOI: 10.3760/cma.j.cn321828-20211130-00427.FENG Y, LAN X L. Introduction to radiomics[J]. Chinese Journal of Nuclear Medicine and Molecular Imaging, 2023.43(1): 55-60. DOI: 10.3760/cma.j.cn321828-20211130-00427.
[32]
何月明, 罗锦文, 张婷, 等. 基于MR超分重建图像的影像组学模型术前预测早期宫颈癌淋巴血管浸润的价值[J]. 放射学实践, 2024, 39(9): 1213-1220. DOI: 10.13609/j.cnki.1000-0313.2024.09.015.
HE Y M, LUO J W, ZHANG T, et al. The value of radiomics model based on MR hyperresolution reconstructed images in preoperative prediction of lymphatic vascular infiltration in early cervical cancer[J]. Radiol Pract, 2024, 39(9): 1213-1220. DOI: 10.13609/j.cnki.1000-0313.2024.09.015.
[33]
张金迪, 贾媛媛, 祝华正, 等. 融合注意力和空洞编码解码的3D-MRI超分辨率算法[J]. 计算机工程与应用, 2024, 60(13): 228-236. DOI: 10.3778/j.issn.1002-8331.2304-0099.
ZHANG J D, JIA Y Y, ZHU H Z, et al. 3D-MRI super-resolution algorithm fusing attention and dilated encoder-decoder[J]. Comput Eng Appl, 2024, 60(13): 228-236. DOI: 10.3778/j.issn.1002-8331.2304-0099.
[34]
夏皓, 吕宏峰, 罗军, 等. 图像超分辨率深度学习研究及应用进展[J]. 计算机工程与应用, 2021, 57(24): 51-60. DOI: 10.3778/j.issn.1002-8331.2105-0418.
XIA H, LÜ H F, LUO J, et al. Survey on deep learning based image super-resolution[J]. Comput Eng Appl, 2021, 57(24): 51-60. DOI: 10.3778/j.issn.1002-8331.2105-0418.
[35]
高媛, 刘志, 秦品乐, 等. 基于深度残差生成对抗网络的医学影像超分辨率算法[J]. 计算机应用, 2018, 38(9): 2689-2695. DOI: 10.11772/j.issn.1001-9081.2018030574.
GAO Y, LIU Z, QIN P L, et al. Medical image super-resolution algorithm based on deep residual generative adversarial network[J]. J Comput Appl, 2018, 38(9): 2689-2695. DOI: 10.11772/j.issn.1001-9081.2018030574.
[36]
CHEN Z L, PAWAR K, EKANAYAKE M, et al. Deep learning for image enhancement and correction in magnetic resonance imaging-state-of-the-art and challenges[J]. J Digit Imaging, 2023, 36(1): 204-230. DOI: 10.1007/s10278-022-00721-9.
[37]
CHEN C X, XIONG L, LIN Y P, et al. Super-resolution reconstruction for early cervical cancer magnetic resonance imaging based on deep learning[J/OL]. Biomed Eng Online, 2024, 23(1): 84 [2025-03-15]. https://pubmed.ncbi.nlm.nih.gov/39175006. DOI: 10.1186/s12938-024-01281-5.

上一篇 磁共振弥散张量成像评估高强度聚焦超声治疗子宫腺肌病早期消融效果的价值研究
下一篇 基于DCE-MRI定量参数图生境放射组学预测术前宫颈癌无淋巴结转移患者LVSI状态的研究
  
诚聘英才 | 广告合作 | 免责声明 | 版权声明
联系电话:010-67113815
京ICP备19028836号-2