分享:
分享到微信朋友圈
X
技术研究
基于循环生成对抗网络生成头颅磁共振sDWI图像的方法研究
夏亮 梁志鹏 张俊

Cite this article as: XIA L, LIANG Z P, ZHANG J. Research on the method of brain magnetic resonance synthetic DWI generation based on the cycle generative adversarial network[J]. Chin J Magn Reson Imaging, 2023, 14(7): 121-126.本文引用格式:夏亮, 梁志鹏, 张俊. 基于循环生成对抗网络生成头颅磁共振sDWI图像的方法研究[J]. 磁共振成像, 2023, 14(7): 121-126. DOI:10.12015/issn.1674-8034.2023.07.021.


[摘要] 目的 基于循环生成对抗网络(cycle generative adversarial network, CycleGAN),利用非配对患者头颅磁共振图像数据实现水抑制T2WI图像和弥散加权成像(diffusion weighted imaging, DWI)图像之间的相互转换,并评估生成的伪弥散加权成像(synthetic diffusion weighted imaging, sDWI)图像质量。材料与方法 收集200例头颅水抑制T2WI图像以及DWI图像,训练集与测试集各100例,其中测试集含50例急性脑梗死。CycleGAN模型包含两个生成器与两个判别器。先基于卷积神经网络(convolutional neural networks, CNN)构建两个生成器,一个将水抑制T2WI图像转换为sDWI图像,另一个生成器将DWI图像转换成伪T2WI图像。再基于CNN构建两个判别器,用于对真实图像和生成的伪图像进行判别并更新参数。生成器与判别器不断交替工作完成CycleGAN模型训练。通过平均绝对误差(mean absolute error, MAE)、平均误差(mean error, ME)、峰值信噪比(peak signal-to-noise ratio, PSNR)和结构相似性(structural similarity, SSIM)以及主观评分评估sDWI图像质量。对50例急性脑梗死DWI图像与sDWI图像进行梗死灶分割,并计算DICE系数。结果 测试集sDWI图像与真实DWI图像MAE为34.991±0.989,ME为15.982±0.978,PSNR为26.642±3.428,SSIM为0.927±0.039;80%以上sDWI图像无或仅有轻微图像失真、伪影;真实DWI与sDWI图像梗死灶分割后的DICE系数分别为0.898±0.324、0.849±0.259。结论 CycleGAN模型和非配对图像数据可以生成质量较高的sDWI图像,为需要快速磁共振成像的患者减少扫描时间。
[Abstract] Objective Based on cycle generative adversarial network (CycleGAN), using unpaired patient head MR image data to achieve mutual conversion between water-suppressed T2WI images and diffusion weighted imaging (DWI) images, and to evaluate the quality of the generated synthetic DWI images.Materials and Methods Brain water-suppressed T2WI images and DWI images of 200 cases were collected. There were 100 cases in the training set and 100 cases in the test set, including 50 cases of acute cerebral infarction. CycleGAN model included two generators and two discriminators. Firstly, two generators were constructed based on convolutional neural networks (CNN). One generator converted water-suppressed T2WI images into synthetic-DWI images, and the other generator converted DWI images into synthetic-T2WI images. Then, two discriminators were constructed based on CNN, which were used to discriminate the real image and the generated synthetic image and update the parameters. The generator and discriminator work alternately to complete the training of CycleGAN model. The image quality of synthetic-DWI was evaluated by MAE, ME, PSNR, SSIM and subjective score. A total of 50 cases of acute cerebral infarction were divided into DWI images and sDWI images, and DICE coefficient was calculated.Results The MAE, ME, PSNR and SSIM values of the synthetic and true DWI images were 34.991±0.989, 15.982±0.978, 26.642±3.428 and 0.927±0.039, respectively. More than 80% of the synthetic DWI images had no or only slight image distortion or artifact. The DICE coefficients of true DWI and synthetic DWI images after infarction segmentation were 0.898±0.324 and 0.849±0.259, respectively.Conclusions The CycleGAN model and unpaired image data can generate high-quality synthetic DWI images and reduce the scanning time for patients who need rapid magnetic resonance imaging.
[关键词] 急性脑梗死;脑卒中;弥散加权成像;循环生成对抗网络;深度学习;磁共振成像
[Keywords] acute cerebral infarction;cerebral apoplexy;diffusion weighted imaging;cycle generative adversarial network;deep learning;magnetic mesonance imaging

夏亮    梁志鹏 *   张俊   

南京医科大学附属逸夫医院影像科,南京 211100

通信作者:梁志鹏,E-mail:410312774@qq.com

作者贡献声明:梁志鹏设计本研究的方案,对稿件部分内容给出了修改建议;夏亮起草和撰写稿件,获取、分析或解释本研究的数据,并对文章作出修订;张俊获取、分析或解释本研究的数据。全体作者都同意发表最后的修改稿,同意对本研究的所有方面负责,确保本研究的准确性和诚信。


收稿日期:2022-10-12
接受日期:2023-06-25
中图分类号:R445.2  R743.33 
文献标识码:A
DOI: 10.12015/issn.1674-8034.2023.07.021
本文引用格式:夏亮, 梁志鹏, 张俊. 基于循环生成对抗网络生成头颅磁共振sDWI图像的方法研究[J]. 磁共振成像, 2023, 14(7): 121-126. DOI:10.12015/issn.1674-8034.2023.07.021.

0 前言

       磁共振弥散加权成像(diffusion weighted imaging, DWI)对急性期脑梗死的诊断价值已经得到充分肯定,磁共振成像技术发展的几十年来,不断针对DWI图像畸变、易产生磁敏感伪影、扫描时间长等缺陷作出改进,但始终无法兼顾[1, 2, 3]。在日常临床实践中,发现部分脑卒中老年患者常佩戴金属假牙,同时存在不自主运动问题,此时急需在短时间内完成DWI以及T2WI扫描。尽管现有技术如螺旋桨、RESOLVE高清弥散成像可以缩短成像时间并改善图像质量,但运动伪影、金属伪影依然会显著降低弥散成像质量[4],因此需要进一步研究探索。几乎所有磁共振图像都包含其他加权信息(例如T2WI图像包含T1、质子、扩散、磁化率、化学位移、灌注等信息)[5],但现有技术无法展示。T2WI包含DWI信息,同时T2WI图像不受回波平面成像采集模式限制,因此图像几乎不存在变形、几何失真,并且可使用K空间放射状填充方式[6]克服运动伪影。生成对抗网络(generative adversarial nets, GANs)模型已被证实可以实现不同加权磁共振图像之间互相转换[7, 8],且该模型在生成伪弥散加权成像(synthetic diffusion weighted imaging, sDWI)图像方面总体令人满意[9],但目前暂无使用水抑制T2WI生成sDWI图像并评估其显示脑梗死能力的研究。为快速获得头颅弥散加权图像,本研究创新地采用水抑制T2WI图像直接合成sDWI图像,以缩短头颅磁共振的扫描时间,并规避DWI图像扫描过程中产生的伪影,便于医生快速准确地通过水抑制T2WI合成的sDWI图像直接判断是否存在急性脑梗死,提高医学磁共振影像的应用价值和临床应用前景。

1 材料与方法

1.1 数据收集与整理

       本研究遵守《赫尔辛基宣言》,经南京医科大学附属逸夫医院伦理委员会批准,免除受试者知情同意,批准文号:2021-SR-012。从南京医科大学附属逸夫医院影像科图像数据库中收集自2021年1月至2022年3月的头颅磁共振图像。纳入标准:(1)不同患者间的图像扫描参数一致;(2)图像检查结果为阴性或者仅含有急性梗死病灶(病灶最短径大于10 mm)。排除标准:(1)图像有假牙等异物造成的磁敏感伪影或者明显的运动伪影;(2)图像内除急性脑梗死外含有肿瘤、出血等其他病变。经筛选后共200例患者图像纳入研究,内含DWI和水抑制T2WI图像,每例头颅磁共振图像包含DWI图像20张、水抑制T2WI图像20张,共4000张DWI图像、4000张水抑制T2WI图像。其中100例为训练集(共2000张DWI图像、2000张水抑制T2WI图像),100例为测试集(共2000张DWI图像、2000张水抑制T2WI图像)。测试集中50例检查结果为急性脑梗死,50例检查结果为阴性。检查设备为3.0 T磁共振扫描仪(SIEMENS Healthineers,Magnetom Verio,Germany)以及头颅正交线圈。DWI扫描参数如下:重复时间5600 ms,回波时间84 ms,翻转角90°,层厚5 mm,层间距6.5 mm,矩阵162×162,b值1000 s/mm2;水抑制T2WI图像扫描参数如下:重复时间8500 ms,回波时间81 ms,翻转角150°,层厚5 mm,层间距6.5 mm,矩阵320×320,视野220 mm×220 mm。数据集中水抑制T2WI图像与DWI图像之间不需对扫描层面进行配准。

1.2 基于水抑制T2WI图像生成DWI的网络结构

       水抑制T2WI与DWI是反映组织特性的成像方式,而任意一种加权图像都混合有其他加权图像信息,因此水抑制T2WI与DWI具有潜在相关性[6]。脑脊液在非水抑制T2WI图像呈明显高信号,为降低脑脊液信号在T2WI与DWI之间映射的复杂程度,选择水抑制T2WI图像纳入研究是非常合理的设计。水抑制T2WI图像与DWI图像之间的映射关系可以通过循环生成对抗网络(cycle generative adversarial network, CycleGAN)模型[7, 8]寻找,由此实现水抑制T2WI图像与DWI图像之间的相互转换。该生成网络模型最大的优点是其训练无需配对的水抑制T2WI图像与DWI图像,符合本研究基于非配对[10]头颅水抑制T2WI图像生成sDWI图像的目的。

       为实现从水抑制T2WI图像合成sDWI图像,需要训练一个完整的GANs模型。本研究中的CycleGAN模型由两个共同优化但目标相反的卷积神经网络(convolutional neural networks, CNN)组成。第一个CNN,即生成器,旨在合成无法与真实图像区分的图像,这样的图像合成通常是图像的非线性转换。第二个CNN,即判别器,旨在辨别合成图像与真实图像。训练模型的过程,同时也是训练生成器与判别器的过程,在最后应用时,只需将水抑制T2WI图像输入生成器即可合成sDWI图像。

       CycleGAN模型[11]训练过程使用CNN模型循环(图1A),但不是简单的两个CNN,分为前后两个循环,每个循环包含两个生成器模型和一个判别器模型。前循环(图1B):第一个生成器模型GANT2WI-DWI将输入的水抑制T2WI转换为sDWI图像输出;第一个判别器模型DY,判别合成sDWI图像与真实DWI图像的匹配程度,请注意,这类似于一个没有额外正则化的GANs;正则化是由第二个生成器GANDWI-T2WI将sDWI图像转换回水抑制T2WI图像,目标是使生成的图像尽可能与原始水抑制T2WI图像相匹配。如果能做到这一点,就可以认为从水抑制T2WI图像中合成的sDWI图像包含重建原始图像所需的数据内容。为提高稳定性,同时训练一个后循环(图1C),该后循环使用同样架构的生成器和一个额外的判别器DX,用于将图像从sDWI图像转换为水抑制T2WI图像,然后再转换回sDWI图像。

       关于生成器与判别器的网络结构特点如下。在Pix2Pix模型[12]中生成器网络是U-Net[13],该网络在CycleGAN中也可以使用。U-Net基本原理是跳跃连接,对应的特征图和解码之后的同样大小的特征图按通道拼在一起,用来保留不同分辨率下像素级的细节信息。U-Net对提升细节的效果非常明显。本研究中生成器采用的对U-Net网络结构改良后的残差网络[14],其中压缩路径包含8个跨步卷积层(strides=2),扩展路径包含7个跨步卷积层(strides=2),最后引入tanh作为激活函数。本文研究中的两个判别器采用的是PatchGAN结构,即判别器真正的输出是原图中的一个感受野,该结构可以保留图片的细节部分。

图1  CycleGAN模型结构示意图。1A:模型由生成器(GANT2WI-DWI与GANDWI-T2WI)与判别器(Dx与Dy)组成。1B:前向循环,T2WI→sDWI→伪T2WI。1C:后向循环,DWI→伪T2WI→sDWI。CycleGAN为循环对抗生成网络;sDWI:伪弥散加权成像,DWI:弥散加权成像。
Fig. 1  Schematic diagram of CycleGAN model structure. 1A: The model consists of generator (GANT2WI-DWI and GANDWI-T2W) and discriminator (Dx and Dy). 1B: Forward cycle, T2WI→sDWI→Synthetic T2WI. 1C: backward cycle, DWI→ Synthetic T2WI→sDWI. CycleGAN: cycle generative adversarial network; sDWI: synthetic diffusion weighted image synthesized; DWI: diffusion weighted imaging.

1.3 目标函数

       本模型采用的总体损失函数由对抗损失项[LGAN(G,DY, X,Y)和LGAN(F,DX,X,Y)]、循环一致损失项[LCycle(G,F)]、加权因子(λ)组成,以保证sDWI图像与水抑制T2WI图像之间的结构一致。LGAN(G,DY,X,Y)引导生成器GANT2WI-DWI学习将输入的水抑制T2WI图像转换为具有弥散权重的sDWI图像,以使判别器DY也无法判别出sDWI图像是不是真实的DWI图像。LGAN(F,DX,X,Y)同理。LGAN(G,DY,X,Y)函数见公式(1)

       其中E(*)代表分布函数的期望值。Pdata(x)指的是水抑制T2WI图像分布。Pdata(y)指的是DWI图像分布。G(x)是给生成器输入训练集中水抑制T2WI图像之后生成的sDWI图像。Dy(y)指的是真实DWI图像输入判别器DY之后得到的实际判别值(范围在[0,1])。DY(G(x))是指sDWI图像输入判别器DY之后得到的实际判别值(范围在[0,1])。Ex~pdata(x)log1-DY(G(x))指的是基于数据集中水抑制T2WI图像生成sDWI图像输入判别器DY实际判别值与理想值1之间差值的期望值。Ey~pdata(y)[logDY(y)]同理。

       LGAN(F,Dx,X,Y)函数见公式(2)

       LGAN(F,DX,X,Y)引导生成器GANDWI-T2WI学习将输入DWI转换为具有T2权重的伪T2WI图像,以使判别器DX也无法判别出伪T2WI图像是不是真实的水抑制T2WI图像。

       虽然对抗损失满足G(x)符合Y图像集的分布,两者之间可能存在多种映射,但不能保证由x到G(x)时图像的内容保留。在生成sDWI图像时希望原始内容未发生改变,改变其权重,因此提出循环一致损失[15, 16],要求图像转换时保留其内容。即要求原始图像转换后生成的图像再次经转换能变换回原始图像。

       循环一致损失函数如公式(3)所示:

       总体损失函数见公式(4)

       其中λ取10,根据以往文献经验,取10效果较好[17]

       总体目标见公式(5)

1.4 测试集sDWI图像质量评价

       通过客观方法评价:比较真实DWI与sDWI图像之间像素值差异,在两图像脑组织内区域计算平均绝对误差(mean absolute error, MAE)、平均误差(mean error, ME)、峰值信噪比[18](peak signal-to-noise ratio, PSNR)和结构相似性[19, 20](structural similarity, SSIM)以定量评估sDWI图像质量,结果用平均值±标准差表示。上述四项评价指标定义见公式(6)~(9):

       其中,MSE=1N∑i=1NDWI(i)-sDWI(i)2

       N是脑组织区域内的像素总数,i是脑组织区域内对像素的索引。MAX表示真实DWI与sDWI图像中的最大像素值。μDWI与μsDWI是真实DWI与sDWI图像的平均值。σDWI与σsDWI是真实DWI与sDWI图像的方差。σDWI sDWI是真实DWI与sDWI图像的协方差。C1=(K1L)2和C2=(K2L)2被用来维持稳定一个常数,其中L=4095、K1=0.01、K2=0.03是默认设置。

       采用SUNet模型[21]对50例急性脑梗死DWI图像与sDWI图像进行梗死灶分割,通过计算图像分割评测指标DICE系数[22](根据Lee Raymond Dice命名,是一种集合相似度度量函数,越接近1说明模型效果越好),评估sDWI图像对SUNet模型病灶分割精度是否有影响。DICE系数结果用平均值±标准差表示。

       通过主观方法评价:采用Likert评分法[23, 24],两名具有5年以上头颈部病变诊断经验的影像主治医师对测试集所有sDWI图像清晰度、图像失真以及伪影进行评分,计算组内相关系数(intraclass correlation coefficient, ICC)评价2个观察者评分一致性。评价标准如下:1分=图像清晰度、对比度差,即严重失真或伪影;2分=中等的图像清晰度、对比度,即中等失真或伪影;3分=良好的图像清晰度、对比度,即轻微失真或伪影;4分=优异的图像清晰度、对比度,即无失真或伪影。

2 结果

       通过测试集转换出的2000张头颅sDWI图像与真实DWI图像之间的MAE为34.991±0.989,ME为15.982±0.978,PSNR为26.642±3.428,SSIM为0.927±0.039。86张sDWI图像大脑纵裂局部结果扭曲(图2),其与真实DWI图像之间的MAE为36.691±0.788,ME为14.989±0.988,PSNR为25.544±3.326,SSIM为0.886±0.089,余sDWI图像的轮廓、大脑灰白质连接自然、无明显异常扭曲。

       测试集50例急性脑梗死在sDWI图像均可显示高信号,其位置以及范围与真实DWI图像基本一致(图2D2F)。真实DWI与sDWI图像梗死灶分割后的DICE系数分别为0.898±0.324、0.849±0.259。

       两名观察者对测试集100例即2000张sDWI图像质量主观评分如表1所示,其中大部分图像都无或仅有轻微图像失真、伪影,占比在80%以上;两名观察间一致性分析结果ICC=0.92。

图2  水抑制T2WI图像合成sDWI图像结果对比图。2A~2C为半卵圆中心层面sDWI图像与真实DWI图像对比。该例sDWI图像显示脑实质与水抑制T2WI图像(2A)基本结构一致。大脑纵裂局部扭曲(2B与2C红色方框区域),但不影响脑实质信号观察。2D~2F为急性脑梗死在sDWI与真实DWI图像显示对比。水抑制T2WI显示左大脑半球大面积脑梗死。左侧大脑半球大面积高信号影(2E)与真实DWI图像(2F)显示的急性脑梗死位置及范围基本一致。彩色区域为梗死灶分割结果。sDWI:伪弥散加权成像;DWI:弥散加权成像。
Fig. 2  Comparison of the results of water-suppressed T2WI synthesis of sDWI. 2A-2C: Comparison of sDWI and real DWI in the central layer of the semicircular canals. The sDWI image shows that the brain parenchyma is consistent with the basic structure of water-suppressed T2WI (2A). Although there is some partial distortion of the brain sulcus (red box in 2B and 2C), it does not affect the observation of brain parenchyma signals. 2D-2F: Comparison of sDWI and real DWI images in the display of acute cerebral infarction. Water suppression T2WI displays widespread cerebral infarction in the left hemisphere of the brain. The high signal shadow of the large area of the left cerebral hemisphere (2E) is basically consistent with the location and range of acute cerebral infarction displayed by the real DWI (2F). The colored area represents the segmentation results of infarction. sDWI: synthetic diffusion weighted image; DWI: diffusion weighted image.
表1  测试集sDWI图像主观评分
Tab. 1  Subjective score of sDWI in test set

3 讨论

       本文利用CycleGAN模型从水抑制T2WI图像生成sDWI图像,从主观与客观两个方面评估sDWI图像质量,并评估使用sDWI图像对急性梗死灶分割的稳定性。结果表明由水抑制T2WI生成的sDWI图像大部分图像质量良好。在对急性梗死灶分割方面,sDWI图像与真实DWI图像之间的DICE系数相近,代表sDWI图像不会明显影响急性梗死灶的分割精度。本文参考国内外研究首次提出使用水抑制T2WI图像生成sDWI图像并采用对急性梗死灶分割的方式评估图像质量,在面对诊断脑卒中临床场景中直接省略真实DWI扫描,由水抑制T2WI直接生成sDWI图像同样可以显示脑梗死,可以缩短头颅磁共振的扫描时间并规避真实DWI易产生磁敏感伪影的缺陷。

3.1 CycleGAN模型创新性与优缺点

       在过去的几年中,已经证明将生成器CNN与判别器CNN联合训练可以使图像合成、跨模式图像转换等医学影像学任务得到改善[25, 26, 27, 28],本文的研究结果也再次证明跨模式图像转换具有可行性。既往实现跨模式磁共振图像转换,需要利用条件生成网络[29],而本文采用的CycleGAN模型突破条件生成网络的限制,更适用于实际临床应用场景。根据既往CycleGAN模型在高低分辨率磁共振图像互相转换的研究经验[30],CycleGAN模型在生成sDWI图像的过程中通过对抗损失与循环损失对生成的图像可以进行像素级约束,防止图像出现非大脑结构,当缺乏上述两个损失时,在生成sDWI图像时会出现一些伪造的结构,这些伪造的结构可能会被误判为病变。这也是以前生成跨模式图像需要使用基于条件生成网络结构的Pix2Pix模型的原因[31],如果本研究采用Pix2Pix模型相信会有更好的生成效果,因为在采用一一配对图像的训练中很容易保证结构一致,而之所以未采用Pix2Pix模型是考虑到并不是每家医疗机构、每位患者都会同时扫描水抑制T2WI图像与DWI图像,为了今后模型的泛化训练,选择CycleGAN模型是最方便、有效的。此外,基于平面回波技术的DWI图像会产生轻微图像畸变,与T2加权图像存在配准问题,CycleGAN模型无需配对图像,从而可以规避磁共振不同加权图像配准的不确定性[22]。CycleGAN模型在生成sDWI图像时无法对多样性病灶转换。例如,原始水抑制T2WI图像内有脑梗死、肿瘤、出血等多种病灶时,此时利用模型生成sDWI图像时,病灶的灰度在sDWI图像会表达混乱。

3.2 sDWI图像的临床价值

       本研究通过对主观评分在1~2分之间的sDWI图像观察,发现图像出现伪影或失真主要出现在两种不同组织交界处,说明本研究模型也计算出真实DWI图像中的磁敏感伪影并进行相对应的映射,这种磁敏感伪影映射到sDWI图像有时会出现在大脑镰旁即颅骨与脑组织交界处,LI等[32]学者的研究也发现伪磁共振图像出现一些虚假对比信息,认为医学图像合成采用无监督学习方式准确性较低,但该研究任务之一是从CT合成伪磁共振图像,其图像对比的映射关系远比磁共振不同加权图像之间复杂,本研究内容仅涉及磁共振图像且最终结果80%的图像均可达到诊断要求。通过对主观评分在3~4分之间的sDWI图像观察,本研究发现原本在真实DWI图像中小脑、颞叶与颅骨、气体交界处会出现磁敏感伪影的地方,在sDWI图像上反而未出现,这在一定程度上避免因磁敏感伪影导致急性梗死的假阳性诊断。有86张sDWI图像大脑纵裂局部结构扭曲,这些sDWI图像主观评分均为3~4分。通过计算该86张sDWI图像与真实DWI图像之间的MAE、ME、PSNR、SSIM,其结果均处于测试集结果平均值附近,说明大脑纵裂的局部结构扭曲对脑实质内信号的观察无重大影响。

       观察生成的sDWI图像上的梗死灶发现病灶均可显示为高信号,且病灶范围、位置与原始图像基本一致,而YOSHIDA等[33]学者的研究发现在生成sDWI图像过程中发现有些梗死图像表现为整体信号增高,目前推测与研究中U-net网络卷积层的数量相关,该研究中降采样卷积层数量较少,没有将足够的像素周围相关信息传递到网络当中导致在采样过程中出现错误。本研究模型的临床应用场景主要在梗死面积较大的情况,这类患者往往躁动且情况危急,完整的、能够满足精确诊断要求的头颅磁共振水抑制T2WI图像与DWI图像采集时间较长,时间越长,患者出现躁动的可能性会增加。此时通过水抑制T2WI图像生成sDWI图像便于医生快速判定是否存在急性梗死,从而提高医学磁共振影像的应用价值和临床应用前景,对于那些难以获得配对图像的医学机构或数据集,本研究方法具有更广泛的适用性。此外值得关注的是,sDWI图像是根据水抑制T2WI图像转换而来,不容易产生磁敏感伪影,也不会因回波链过长产生模糊效应。其清晰度较真实DWI图像反而有所提升,即sDWI图像会继承原有生成图像清晰度的特点,这一点与HU等[9]的研究基本一致。

3.3 不足之处与改进方向

       本次研究仍然存在不足之处。首先,sDWI图像是由水抑制T2WI图像映射得到,sDWI图像的信号是否可以用来进一步计算ADC值需要进一步研究。其次,因急性梗死数据量较少,sDWI图像暂时不确定是否存在T2透过效应。最后,模型仍然有进一步优化空间,其他学者对生成网络模型的改进表明可以满足更多的临床需求[34, 35, 36],同时模型未经过多中心数据训练,可能泛化能力不强,未来可以收集多中心数据进行训练。

4 结论

       本文使用不同患者的非配对水抑制T2WI与DWI图像训练CycleGAN模型,验证头颅水抑制T2WI图像生成DWI图像的可行性与准确性,结果也表明生成的sDWI图像可以诊断急性梗死,并为急诊卒中患者缩短磁共振扫描时间。将来再利用此模型展开磁共振其他权重图像相互转换,为其他部位急诊磁共振检查缩短扫描时间。

[1]
CHEVALLIER O, ZHOU N, HE J, et al. Removal of evidential motion-contaminated and poorly fitted image data improves IVIM diffusion MRI parameter scan-rescan reproducibility[J]. Acta Radiol, 2018, 59(10): 1157-1167. DOI: 10.1177/0284185118756949.
[2]
HU Y X, LEVINE E G, TIAN Q Y, et al. Motion-robust reconstruction of multishot diffusion-weighted images without phase estimation through locally low-rank regularization[J]. Magn Reson Med, 2019, 81(2): 1181-1190. DOI: 10.1002/mrm.27488.
[3]
刘琴, 周智鹏. 基于复合灵敏度编码的高分辨率磁共振扩散成像原理及其临床应用[J]. 磁共振成像, 2022, 13(1): 167-170. DOI: 10.12015/issn.1674-8034.2022.01.040.
LIU Q, ZHOU Z P. Principle and clinical application of high resolution magnetic resonance diffusion imaging with multiplexed sensitivity encoding[J]. Chin J Magn Reson Imaging, 2022, 13(1): 167-170. DOI: 10.12015/issn.1674-8034.2022.01.040.
[4]
KIM T H, BAEK M Y, PARK J E, et al. Comparison of DWI methods in the pediatric brain: propeller turbo spin-echo imaging versus readout-segmented echo-planar imaging versus single-shot echo-planar imaging[J]. AJR Am J Roentgenol, 2018, 210(6): 1352-1358. DOI: 10.2214/AJR.17.18796.
[5]
YOUNG I R, SZEVERENYI N M, DU J, et al. Pulse sequences as tissue property filters (TP-filters): a way of understanding the signal, contrast and weighting of magnetic resonance images[J]. Quant Imaging Med Surg, 2020, 10(5): 1080-1120. DOI: 10.21037/qims.2020.04.07.
[6]
HU H H, MCALLISTER A S, JIN N, et al. Comparison of 2D BLADE turbo gradient- and spin-echo and 2D spin-echo echo-planar diffusion-weighted brain MRI at 3 T: preliminary experience in children[J]. Acad Radiol, 2019, 26(12): 1597-1604. DOI: 10.1016/j.acra.2019.02.002.
[7]
ZHANG H X, LI H L, DILLMAN J R, et al. Multi-contrast MRI image synthesis using switchable cycle-consistent generative adversarial networks[J/OL]. Diagnostics (Basel), 2022, 12(4): 816 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/35453864/. DOI: 10.3390/diagnostics12040816.
[8]
DOU H, CHEN C, HU X Y, et al. Asymmetric CycleGAN for image-to-image translations with uneven complexities[J/OL]. Neurocomputing, 2020, 415: 114-122 [2022-10-11]. https://www.sciencedirect.com/science/article/abs/pii/S0925231220311528?via%3Dihub. DOI: 10.1016/j.neucom.2020.07.044.
[9]
HU L, ZHOU D W, ZHA Y F, et al. Synthesizing high-b-value diffusion-weighted imaging of the prostate using generative adversarial networks[J/OL]. Radiol Artif Intell, 2021, 3(5): e200237 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/34617025/. DOI: 10.1148/ryai.2021200237.
[10]
JI W, GUO J, LI Y. Multi-head mutual-attention CycleGAN for unpaired image-to-image translation[J]. IET Image Process, 2020, 14(11): 2395-2402. DOI: 10.1049/iet-ipr.2019.1153.
[11]
BABU K K, DUBEY S R. CDGAN: Cyclic Discriminative Generative Adversarial Networks for image-to-image transformation[J/OL]. J Vis Commun Image Represent, 2022, 82: 103382 [2022-10-11]. https://www.sciencedirect.com/science/article/abs/pii/S1047320321002522?via%3Dihub. DOI: 10.1016/j.jvcir.2021.103382.
[12]
SUN J Z, DU Y, LI C Y, et al. Pix2Pix generative adversarial network for low dose myocardial perfusion SPECT denoising[J]. Quant Imaging Med Surg, 2022, 12(7): 3539-3555. DOI: 10.21037/qims-21-1042.
[13]
ZHANG Z X, LIU Q J, WANG Y H. Road extraction by deep residual U-net[J]. IEEE Geosci Remote Sens Lett, 2018, 15(5): 749-753. DOI: 10.1109/LGRS.2018.2802944.
[14]
WEN L, LI X Y, GAO L. A transfer convolutional neural network for fault diagnosis based on ResNet-50[J]. Neural Comput & Applic, 2020, 32(10): 6111-6124. DOI: 10.1007/s00521-019-04097-w.
[15]
BABU K K, DUBEY S R. CSGAN: Cyclic-Synthesized Generative Adversarial Networks for image-to-image transformation[J/OL]. Expert Syst Appl, 2021, 169: 114431 [2022-10-11]. https://www.sciencedirect.com/science/article/abs/pii/S0957417420310940?via%3Dihub. DOI: 10.1016/j.eswa.2020.114431.
[16]
YANG H R, SUN J, CARASS A, et al. Unsupervised MR-to-CT synthesis using structure-constrained CycleGAN[J]. IEEE Trans Med Imaging, 2020, 39(12): 4249-4261. DOI: 10.1109/TMI.2020.3015379.
[17]
JIN C B, KIM H, LIU M J, et al. Deep CT to MR synthesis using paired and unpaired data[J/OL]. Sensors (Basel), 2019, 19(10): 2361 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/31121961/. DOI: 10.3390/s19102361.
[18]
WANG J T, YAN B, WU X H, et al. Development of an unsupervised cycle contrastive unpaired translation network for MRI-to-CT synthesis[J/OL]. J Appl Clin Med Phys, 2022, 23(11): e13775 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/36168935/. DOI: 10.1002/acm2.13775.
[19]
WANG J J, CHEN P, ZHENG N N, et al. Associations between MSE and SSIM as cost functions in linear decomposition with application to bit allocation for sparse coding[J/OL]. Neurocomputing, 2021, 422: 139-149 [2022-10-11]. https://www.sciencedirect.com/science/article/abs/pii/S0925231220315149?via%3Dihub. DOI: 10.1016/j.neucom.2020.10.018.
[20]
GOURDEAU D, DUCHESNE S, ARCHAMBAULT L. On the proper use of structural similarity for the robust evaluation of medical image synthesis models[J]. Med Phys, 2022, 49(4): 2462-2474. DOI: 10.1002/mp.15514.
[21]
CLÈRIGUES A, VALVERDE S, BERNAL J, et al. Acute and sub-acute stroke lesion segmentation from multimodal MRI[J]. Comput Methods Programs Biomed, 2020, 194: 105521 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/32434099/. DOI: 10.1016/j.cmpb.2020.105521.
[22]
GANESHKUMAR M, RAVI V, SOWMYA V, et al. Identification of intracranial haemorrhage (ICH) using ResNet with data augmentation using CycleGAN and ICH segmentation using SegAN[J].Multimed Tools Appl, 2022, 81(25): 36257-36273. DOI: 10.1007/s11042-021-11478-8.
[23]
MÖNCH S, SOLLMANN N, HOCK A, et al. Magnetic resonance imaging of the brain using compressed sensing-quality assessment in daily clinical routine[J]. Clin Neuroradiol, 2020, 30(2): 279-286. DOI: 10.1007/s00062-019-00789-x.
[24]
朱刚明, 谭源满, 陶娟, 等. 基于深度学习的冠状动脉CTA人工智能后处理对疑似冠心病患者诊断价值的初步研究[J]. 临床放射学杂志, 2021, 40(11): 2128-2133. DOI: 10.12117/jccmi.2020.04.006.
ZHU G M, TAN Y M, TAO J, et al. The value of artificial intelligence of coronary CTA based on deep learning in suspected coronary arteriosclerotic heart disease patients[J]. J Clin Radiol, 2021, 40(11): 2128-2133. DOI: 10.12117/jccmi.2020.04.006.
[25]
PENG Y L, CHEN S P, QIN A, et al. Magnetic resonance-based synthetic computed tomography images generated using generative adversarial networks for nasopharyngeal carcinoma radiotherapy treatment planning[J/OL]. Radiother Oncol, 2020, 150: 217-224 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/32622781/. DOI: 10.1016/j.radonc.2020.06.049.
[26]
SUN B, JIA S F, JIANG X L, et al. Double U-Net CycleGAN for 3D MR to CT image synthesis[J]. Int J CARS, 2023, 18(1): 149-156. DOI: 10.1007/s11548-022-02732-x.
[27]
ELAZAB A, WANG C M, GARDEZI S J S, et al. GP-GAN: brain tumor growth prediction using stacked 3D generative adversarial networks from longitudinal MR Images[J/OL]. Neural Netw, 2020, 132: 321-332 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/32977277/. DOI: 10.1016/j.neunet.2020.09.004.
[28]
ABU-SRHAN A, ALMALLAHI I, ABUSHARIAH M A M, et al. Paired-unpaired Unsupervised Attention Guided GAN with transfer learning for bidirectional brain MR-CT synthesis[J/OL]. Comput Biol Med, 2021, 136: 104763 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/34449305/. DOI: 10.1016/j.compbiomed.2021.104763.
[29]
DAR S U, YURT M, KARACAN L, et al. Image synthesis in multi-contrast MRI with conditional generative adversarial networks[J]. IEEE Trans Med Imaging, 2019, 38(10): 2375-2388. DOI: 10.1109/TMI.2019.2901750.
[30]
XIE H Q, LEI Y, WANG T H, et al. Synthesizing high-resolution magnetic resonance imaging using parallel cycle-consistent generative adversarial networks for fast magnetic resonance imaging[J]. Med Phys, 2022, 49(1): 357-369. DOI: 10.1002/mp.15380.
[31]
KLAGES P, BENSLIMANE I, RIYAHI S, et al. Patch-based generative adversarial neural network models for head and neck MR-only planning[J]. Med Phys, 2020, 47(2): 626-642. DOI: 10.1002/mp.13927.
[32]
LI Y F, LI W, XIONG J, et al. Comparison of supervised and unsupervised deep learning methods for medical image synthesis between computed tomography and magnetic resonance images[J/OL]. Biomed Res Int, 2020, 2020: 5193707 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/33204701/. DOI: 10.1155/2020/5193707.
[33]
YOSHIDA M, TERAMOTO A, KUDO K, et al. Automated extraction of cerebral infarction region in head MR image using pseudo cerebral infarction image by CycleGAN[J/OL]. Appl Sci, 2022, 12(1): 489 [2022-10-11]. https://www.mdpi.com/2076-3417/12/1/489. DOI: 10.3390/app12010489.
[34]
REZAEIJO S M, ENTEZARI ZARCH H, MOJTAHEDI H, et al. Feasibility study of synthetic DW-MR images with different b values compared with real DW-MR images: quantitative assessment of three models based-deep learning including CycleGAN, Pix2PiX, and DC2 Anet[J]. Appl Magn Reson, 2022, 53(10): 1407-1429. DOI: 10.1007/s00723-022-01482-y.
[35]
LI W, LI Y F, QIN W J, et al. Magnetic resonance image (MRI) synthesis from brain computed tomography (CT) images based on deep learning methods for magnetic resonance (MR)-guided radiotherapy[J]. Quant Imaging Med Surg, 2020, 10(6): 1223-1236. DOI: 10.21037/qims-19-885.
[36]
DAI X J, LEI Y, LIU Y Z, et al. Intensity non-uniformity correction in MR imaging using residual cycle generative adversarial network[J/OL]. Phys Med Biol, 2020, 65(21): 215025 [2022-10-11]. https://pubmed.ncbi.nlm.nih.gov/33245059/. DOI: 10.1088/1361-6560/abb31f.

上一篇 MRI 3D-Vibe联合T2 mapping成像对腕关节三角纤维软骨复合体损伤的评价及定量分析
下一篇 胸壁低度恶性肌纤维母细胞肉瘤一例
  
诚聘英才 | 广告合作 | 免责声明 | 版权声明
联系电话:010-67113815
京ICP备19028836号-2