分享:
分享到微信朋友圈
X
临床研究
基于磁共振多参数图像融合及DenseNet网络的脑胶质瘤IDH突变预测研究
胡振远 魏炜 胡文鐘 马梦航 李艳 吴旭莎 印弘 席一斌

Cite this article as: HU Z Y, WEI W, HU W Z, et al. Prediction of IDH mutations in glioma based on MRI multiparametric image fusion and DenseNet network[J]. Chin J Magn Reson Imaging, 2023, 14(7): 10-17.本文引用格式:胡振远, 魏炜, 胡文鐘, 等. 基于磁共振多参数图像融合及DenseNet网络的脑胶质瘤IDH突变预测研究[J]. 磁共振成像, 2023, 14(7): 10-17. DOI:10.12015/issn.1674-8034.2023.07.003.


[摘要] 目的 建立一个基于人工智能深度学习DenseNet网络和多模态融合技术的预测模型,实现对胶质瘤患者术前异柠檬酸脱氢酶(isocitrate dehydrogenase, IDH)基因突变状态的高准确性预测。材料与方法 回顾性分析空军军医大学西京医院2012年1月至2016年9月连续收治的256名(155名IDH野生型和101名IDH突变型)患者的术前多序列MRI扫描图像,在T1加权成像(T1-weighted imaging, T1WI)、T2加权成像(T2-weighted imaging, T2WI)、增强T1WI序列上勾画肿瘤感兴趣区;通过深度学习卷积神经网络提取并融合了MRI多模态特征,定量比较了其与多模态特征简单拼接两种方法之间的模型性能差异。结果 多模态融合比各模态简单拼接具有更优越的预测性能,实现了训练集和测试集受试者工作特征曲线下面积分别为0.903 [95%置信区间(confidence interval, CI):0.845~0.961]、0.904(95% CI:0.842~0.966)的良好鉴别性能;准确率分别达到了91.3%、88.7%。敏感度分别达到了86.4%、90.5%;特异度分别达到了94.5%、87.5%,使用校准曲线进行模型一致性验证,模型校准曲线靠近对角线,反映出模型具有较好的预测效果。DeLong检验结果显示多模态融合方法和消融方法两种方法的模型性能差异具有统计学意义(P<0.05),前者优于后者。结论 基于深度学习DenseNet网络的MRI多模态融合模型通过整合肿瘤的多模态MRI图像信息,可以实现在术前对胶质瘤IDH基因状态的无创、低成本的预测。
[Abstract] Objective Developing a high-accuracy prediction model based on artificial intelligence deep learning DenseNet network and multimodal fusion technology to predict the preoperative isocitrate dehydrogenase (IDH) gene mutation status in glioma patients.Materials and Methods Retrospective analysis of the preoperative multisequence MRI scan images of 256 (155 IDH wild type and 101 IDH mutant type) patients consecutively admitted to xijing hospital, air force military medical university, from January 2012 to September 2016, and the region of interest was outlined on T1-weighted imaging(T1WI), T2-weighted imaging (T2WI), and contrast-enhanced T1WI sequences; deep learning convolutional neural networks were used to extract and fuse the MRI multimodal features. The model performance differences between the multimodal fusion model and two simple stitching methods of multimodal features were quantitatively compared.Results The multimodal fusion had superior prediction performance than other single-modal simple splicing, achieving good discriminative performance with the training and testing set receiver operating characteristic curve area under the curve of 0.903 [95% confidence interval (CI), 0.845-0.961] and 0.904 (95% CI, 0.842-0.966), respectively; accuracy of 91.3% and 88.7%, respectively. The sensitivity reached 86.4% and 90.5% respectively; the specificity reached 94.5% and 87.5% respectively, and the model consistency was verified using the calibration curve, and the model calibration graph is close to the diagonal line, reflecting that the model has a good prediction effect. The DeLong test results showed a statistical difference (P<0.05) in the model performance between the two methods of multimodal fusion and ablation, with the former being superior to the latter.Conclusions MRI multimodal fusion model based on deep learning DenseNet network can achieve non-invasive and low-cost prediction of IDH gene status of glioma before surgery by integrating multimodal MRI image information of tumor.
[关键词] 胶质瘤;深度学习;智能医疗;磁共振成像;多模态融合;异柠檬酸脱氢酶
[Keywords] glioma;deep learning;intelligent medicine;magnetic resonance imaging;multimodal fusion;IDH

胡振远 1   魏炜 1   胡文鐘 2   马梦航 1   李艳 3   吴旭莎 3   印弘 2, 3   席一斌 3*  

1 西安工程大学电子信息学院,西安 710600

2 空军军医大学西京医院放射科,西安 710032

3 西安市人民医院(西安市第四医院)医学影像中心,西安 710004

通信作者:席一斌,E-mail:xyb1113@qq.com

作者贡献声明:席一斌采集并分析和解释了数据,对文章知识性内容进行了批评性审阅,提供技术指导;胡振远起草和撰写了稿件,参与酝酿、设计实验,实施研究和分析解释数据;魏炜酝酿和设计实验并实施研究,参与分析解释数据,对文章内容进行审阅并指导修改,对数据进行了统计分析;胡文鐘参与数据的采集、分析与解释,对文章的知识性内容作批评性审阅,进行相关技术指导;马梦航参与酝酿、设计和实施实验,参与了分析和解释数据;李艳参与了数据采集、分析和解释,对文章的知识性内容进行审阅;吴旭莎参与数据的采集、分析与解释,对文章的知识性内容作批评性审阅,并进行相关技术指导;印弘参与数据的采集、分析与解释,对文章的知识性内容作批评性审阅,进行相关技术指导,提供支持性贡献。魏炜获得陕西省自然科学基础研究计划(编号:2023-JC-YB-682)、西安市科技计划高校院所科技人员服务企业基金项目资助;印弘获得了陕西省自然科学基础研究计划(编号:2023-JC-ZD-58)基金项目资助。全体作者都同意发表最后的修改稿,同意对本研究的所有方面负责,确保本研究的准确性和诚信。


基金项目: 陕西省自然科学基础研究计划 2023-JC-YB-682,2023-JC-ZD-58 西安市科技计划高校院所科技人员服务企业项目 22GXFW0036
收稿日期:2022-12-30
接受日期:2023-06-26
中图分类号:R445.2  R739.41 
文献标识码:A
DOI: 10.12015/issn.1674-8034.2023.07.003
本文引用格式:胡振远, 魏炜, 胡文鐘, 等. 基于磁共振多参数图像融合及DenseNet网络的脑胶质瘤IDH突变预测研究[J]. 磁共振成像, 2023, 14(7): 10-17. DOI:10.12015/issn.1674-8034.2023.07.003.

0 前言

       胶质瘤是脑内最常见的肿瘤[1, 2],其致死率高、预后极差且极易复发[3, 4]。我国国家卫生健康委员会公布的统计资料显示,我国的胶质瘤患者5年病死率仅次于胰腺癌和肺癌。除化疗、放疗外,手术切除是目前治疗胶质瘤的最有效方法[5, 6],由于手术在颅内进行,危险性大,故脑胶质瘤的致残率亦居高不下。根据世界卫生组织(World Health Organization, WHO)第五版中枢神经系统肿瘤分类(WHO CNS5),分子变化在中枢神经系统肿瘤特征研究中有重要意义,异柠檬酸脱氢酶(isocitrate dehydrogenase, IDH)基因突变就是其中一个重要的分子标志物[7, 8]。WHO CNS5规定成人型弥漫性胶质瘤及儿童型弥漫性高级别胶质瘤与IDH的基因状态有关[9],IDH基因突变在胶质瘤中的重要性主要体现在两个方面:其一,IDH突变是胶质瘤发生、发展的一个重要遗传学基础。IDH突变可以引起线粒体功能障碍、代谢异常和细胞凋亡的抑制[10],从而促进胶质瘤细胞的增殖和转移。其二,IDH突变是胶质瘤患者预后的一个重要因素。与野生型IDH的胶质瘤患者相比,IDH突变型胶质瘤患者具有更好的生存率和预后,且更容易对治疗产生积极反应[11]。因此,术前精确地评估胶质瘤IDH突变状态对胶质瘤患者预后预测、制订个性化治疗策略、改善患者生存质量具有重要意义。但是目前传统的医学影像诊断方法和分子生物学检测方法在预测胶质瘤IDH基因突变状态方面存在一些局限性和不足,如医学影像诊断方法无法确定IDH突变状态,并且胶质瘤的影像表现与其他肿瘤或非肿瘤性病变相似时容易导致误诊。而分子生物学检测方法则受到样本数量和质量的影响,且成本高昂。同时,传统的单一模态医学影像也难以全面地反映胶质瘤信息。基于传统影像组学预测IDH的方法也存在一定问题,如模型预测准确度的稳健性差和单模态模型的鲁棒性差。在技术方面,目前胶质瘤IDH基因突变状态的预测通常依赖于医生的经验和病理学分析,但这些方法可能存在主观性和不确定性,并且需要大量的时间和人力资源,因此,如何从多模态的影像数据中提取更具有判别能力的特征和如何有效融合多模态特征是目前亟须解决的技术问题。

       MRI技术自问世以来发展迅速,目前已成为胶质瘤临床影像学诊断的主要辅助手段之一[12, 13],从影像中发掘高通量特征,结合影像特征与临床信息进行相关性分析,可为临床提供有价值的诊断及预后信息[14, 15]。在既往研究中,影像组学是主流的特征提取与分析技术,而卷积神经网络作为人工智能(artificial intelligence, AI)领域最流行的深度学习框架,可在影像组学完成的特征提取任务之上,实现特征的进一步补充和丰富。已有多项研究表明,深度卷积神经网络在医学影像识别领域具有卓越的性能表现[16, 17, 18],在胶质瘤分类、分级、预测等方面具有广阔的发展前景,尤其是DenseNet网络(密集连接卷积神经网络),DenseNet网络的提出解决了普通神经网络常面临的特征不能重用、参数数量大等问题[19]。已有研究认为推理和融合多模态数据中隐含的多重关系有利于得到更准确的结论和解释[20],迄今为止,虽然已有研究融合多个MRI序列的特征来进行胶质瘤分类、分级,但尚无研究尝试融合MRI多模态特征来预测IDH基因的突变状态,大多数研究只是简单地链接多模态特征,多模态之间的相关性无法被有效发掘与利用[21]。基于以上因素,本研究提出了基于深度卷积神经网络DenseNet的多模态MRI影像分析模型以实现术前精准预测患者IDH状态,模型使用AI方法,结合多模态融合技术,有效利用多模态特征之间的相关性,降低跨模态的异质性差异,进而实现对胶质瘤IDH突变状态的准确预测,本研究旨在为胶质瘤患者的个性化精准治疗提供依据,为后续的理论研究提供借鉴与参考。

1 材料与方法

1.1 研究对象

       回顾性分析空军军医大学西京医院2012年1月至2016年9月连续收治的256例胶质瘤患者术前MRI影像及临床病理资料。本研究遵守《赫尔辛基宣言》且获得空军军医大学西京医院伦理委员会审批通过,免除受试者知情同意,批准文号:KY20193180。本文对其临床资料、受试者及相关信息作出详细说明。纳入标准如下:(1)所有患者首次发病,行MRI扫描前未予治疗;(2)患者有术前T1加权成像(T1-weighted imaging, T1WI)、T2加权成像(T2-weighted imaging, T2WI)、增强T1WI(contrast-enhanced T1WI, CE-T1WI)三个序列MRI影像;(3)图像质量达到临床诊断标准;(4)所有患者均进行病理分子检验,具有IDH相关数据。排除标准为:患者患有其他全身性疾病。

1.2 MRI影像采集

       全部患者在术前2周均经GE公司3.0 T MRI扫描机(Discovery MR750, GE Healthcare, Milwaukee, Wisconsin, USA)、8通道相控阵头颅线圈扫描,扫描序列包括:轴位T1WI平扫、轴位T2WI平扫、轴位CE-T1WI扫描。分别设置扫描参数。T1WI:TR 1750 ms,TE 25.2 ms,层厚5 mm,矩阵320×192;T2WI:TR 4080 ms,TE 91 ms,层厚5 mm,矩阵512×512;CE-T1WI:TR 1750 ms,TE 20.7 ms,FOV 24 cm×21.6 cm,层厚5 mm,矩阵 320×256,在CE-T1WI扫描检查之前,所有患者都静脉注射了10~15 mL不等的0.1 mmol/kg Gd-DTPA对比剂(广州康臣药业有限公司,批准文号:国药准字H10950231\国药准字H10950271\国药准字H10950272)。

1.3 IDH基因检测

       本研究的IDH基因检测方法如下:首先根据HE染色切片确认胶质瘤肿瘤区域并刮取相应白片肿瘤组织,再按照Qiagen GeneRead DNA FFPE kit(德国)操作手册的要求进行DNA提取。提取的DNA经PCR扩增后进行凝胶电泳观察,以确定是否得到了目的条带。然后使用Bigdye Terminator(v3.1)进行测序反应,经ABI 3500型基因分析仪(ABI公司,美国)正反向测序。测序结果使用Seqscape软件比对,并检测分析IDH1基因R132位点和IDH2基因R172位点的突变状态。规定IDH1基因R132位点和IDH2基因R172位点任何一个突变都被认为是IDH基因突变。

1.4 图像分割

       将T1WI、T2WI和CE-T1WI图像以DICOM格式导入医学图像工具包ITK-SNAP(http://www.itksnap.org)中进行手动肿瘤分割和感兴趣区(region of interest, ROI)勾画(图1),ROI勾画是影像深度学习分析的基础,它决定了分析所关注的区域,以及模型所提取到特征的准确性和可靠性。分割与勾画过程如下:首先,在显示水肿区最为敏感的轴向T2WI图像的每个层面勾画ROI,范围覆盖整个肿瘤,包括病灶内的坏死、囊变区及瘤周水肿区域,随后以T2WI上勾画的ROI为参考,进一步在T1WI和CE-T1WI上勾画肿瘤边缘和范围。所有病灶的手动分割由一名放射科神经影像主任医师和一名有20年工作经验的放射科神经影像专科的主任医师完成。两人均在不明确病理分型的情况下进行肿瘤分割和检验。

图1  CE-T1WI、T1WI和T2WI中的ROI勾画。1A:在CE-T1WI上勾画病灶;1B:在T1WI上勾画病灶;1C:在T2WI上勾画病灶。CE-T1WI:增强T1加权成像;T1WI:T1加权成像;T2WI:T2加权成像;ROI:感兴趣区。
Fig. 1  ROI outlining in CE-T1WI, T1WI and T2WI. 1A: Outlining of lesions on CE-T1WI; 1B: Outlining of lesions on T1WI; 1C: Outlining of lesions on T2WI. CE-T1WI: contrast-enhanced T1-weighted imaging; T1WI: T1-weighted imaging; T2WI: T2-weighted imaging; ROI: region of interest.

1.5 多模态融合模型网络架构

       本研究模型的网络架构主要分为两个模块:一是深度学习DenseNet网络模块;二是双线性池化模块。采用DenseNet作为深度学习模型的主体,主要基于DenseNet在网络连接方式上的创新性。DenseNet网络中的每一层都与其前面的层直接相连,这种密集连接方式使得网络更充分地利用数据,减少了梯度消失问题。同时保证模型训练过程中更充分地利用数据信息,提高模型准确性。双线性池化是一种用于融合多模态数据的方法,它能够有效利用多模态数据之间的交互信息。本研究采用的T1WI、T2WI和CE-T1WI影像包含了不同的生物学信息,因此由该方法将多模态特征融合。双线性池化模块可以有效地融合多模态数据,在保留多模态数据特征的同时提高模型的准确性。

1.5.1 DenseNet网络模型

       本研究采用了图2所示的DenseNet网络模型,多模态的MRI影像CE-T1WI、T1WI、T2WI分别作为三组孪生网络的模型输入,经过卷积核为7×7×7、像素填充值为3、步长为2的卷积,连接正则化Batch Norm和激活函数ReLU,进行3D数据的最大池化操作,连接密集连接层数为6的Dense Block 1模块,再通过Transition过渡模块,特征图数量从128提升到256,再连接一个12层的Dense Block 2模块,连接自适应池化(AdaptivePool3d),经过全连接层(fully connected layer)后将特征输出。DenseNet网络的作用是对三种模态的影像进行特征提取,得到的特征再作为双线性池化模块的输入,最后通过分类器Softmax Classifier完成对胶质瘤IDH突变型与IDH野生型的分类并输出分类概率与结果。

图2  三层DenseNet孪生网络模型。Conv:卷积层;BN:批归一化层;ReLU:线性整流激活函数;MaxPool3d:3D最大池化层;Transition:过渡层;AdaptivePool3d:3D自适应池化。
Fig. 2  Three-layer DenseNet twin network model. Conv: convolution layer; BN: batch normalization layer; ReLU: Linear rectification activation function; MaxPool3d: 3D max pooling layer; Transition: transition layer; AdaptivePool3d: 3D adaptive pooling layer.

1.5.2 多参数特征融合

       目前多数研究仅将多模态特征简单链接后直接用于分类,而忽略了模态之间的潜在关联[22],不利于发掘多模态之间复杂而重要的深层次联系。在多模态融合算法上,与多数研究采用的多种特征向量首尾串联的融合思路不同,本文改进了双线性池化算法,使能够对多模态特征融合,在有效减少模型参数数量和计算时间的同时保证高维输出和模型的鲁棒性,以深入挖掘特征间的复杂关系,提高预测模型的鲁棒性和稳定性[23],得到比既往研究更准确的预测结果。

       双线性池化的概念自被提出以来已经被广泛应用于细粒度图像识别等研究领域[24]。本研究实现多模态线性池化的过程大致分为四步:(1)将相同位置上的不同特征进行线性的相乘,得到矩阵A,相乘的过程即为特征“融合”的过程;(2)将相乘后得到的矩阵A进行池化操作得到特征融合矩阵B;(3)将矩阵B张成一个向量;(4)通过矩阵归一化方法得到融合特征。融合特征即可被用于分类,多参数特征融合模块架构如图3所示。

图3  多模态特征的提取与融合。CNN:卷积神经网络;convolutional + pooling layers:卷积层+池化层;bilinear vector:双线性矢量;softmax:归一化指数函数;IDH:异柠檬酸脱氢酶。
Fig. 3  Extraction and Fusion of Multimodal Features. CNN: convolutional neural networks; convolutional + pooling layers: convolutional layers and pooling layers; bilinear vector: a vector produced by bilinear pooling of feature maps; softmax: a normalized exponential function; IDH: isocitrate dehydrogenase.

1.6 模型训练

       数据集中256例患者随机分为训练集和测试集,患者数量比例3∶2,分别包含150例和106例患者,首先使用训练集的多模态MRI作为输入,输入数据维度为64×64×12,初始学习率(learning rate, LR)设置为0.001,训练过程中LR衰减策略为指数衰减,batch size定为64、最大迭代次数定为500次、权重衰减值定为1e-4,分类阈值定为0.5,本研究将Dropout层添加到模型中以避免过拟合。训练过程中不断优化模型参数。训练完成后在测试集上对模型进行性能检验。

1.7 消融实验

       为了突出多模态融合模型的优势、加深对双线性池化网络在模型中的功能和作用的理解、提升网络的性能,本文设计了消融实验,主要思路是移除原有模型中的多模态特征融合步骤,直接将DenseNet网络输出的特征简单拼接,然后输入至分类器。最后比较两种实验方法的模型预测性能,以验证前者在胶质瘤IDH分类中的优势。

1.8 模型验证

       本文使用了准确率、受试者工作特征(receiver operating characteristic, ROC)曲线下面积(area under the curve, AUC)、敏感度、特异度、校准曲线等参量和方法来衡量模型准确性与可靠性,预测结果可分为四类:(1)预测为IDH突变型,实际为IDH突变型,为正确的正例事件(true positive, TP);(2)预测为IDH野生型,实际为IDH野生型,为正确的负例事件(true negative, TN);(3)预测为IDH突变型,实际为IDH野生型,为错误的正例事件(false positive, FP);(4)预测为IDH野生型,实际为IDH突变型,为错误的负例事件(false negative, FN)。

       准确率被定义为所有样本中预测正确的样本比例,见公式(1)

       敏感度被定义为所有IDH突变型样本中被正确识别出的样本比例,见公式(2)

       特异度被定义为所有IDH野生型样本中被正确识别出的样本比例,见公式(3)

       ROC曲线可以反映模型分类的效果,但是其效果并不直观,所以本文选择AUC这一特定指标来量化模型分类性能,AUC=1代表完美性能,AUC=0.5代表随机猜测。本文通过绘制校准曲线的方式来表示预测值和实际值的差距,校准曲线描述了模型在预测胶质瘤IDH基因突变状态和临床病理分子检测结果上的一致性。横轴代表预测概率,纵轴代表实际概率,对角线则代表预测概率始终等于实际概率,属于理想模型,该方法已广泛应用于各种需体现模型性能的研究[25, 26]

1.9 统计分析

       本研究中所有的数据分析均在SPSS软件(v26.0)、R软件(v3.6.1)环境下进行。符合正态分布的年龄数据采用独立样本t检验统计分析,用“均值±标准差”形式表示;性别与胶质瘤级别则使用Fisher精确检验进行统计分析;DeLong检验用于比较两种预测模型的AUC。P<0.05表示差异具有统计学意义。在特征计算方面,使用由两名医师勾画的ROI分别作为输入,通过全连接层计算得到组内相关系数(intra-class correlation coefficient, ICC),ICC>0.8的结果定义为特征稳定的结果。

2 结果

2.1 患者临床特征

       本研究共纳入256例患者数据,其中IDH野生型155例,年龄10~73岁;IDH突变型101例,年龄16~76岁。训练集包括150例患者数据(91例IDH野生型、59例IDH突变型),年龄16~73岁;测试集包括106例患者数据(64例IDH野生型、42例IDH突变型),年龄10~76岁。统计检验结果显示,IDH野生型和IDH突变型患者胶质瘤分级与年龄差异有统计学意义(P<0.001),且野生型患者年龄较大,性别差异无统计学意义(P=0.657),训练集和测试集在年龄(P=0.781)、性别(P=0.642)与胶质瘤级别(P=0.294)三方面差异无统计学意义,所有入组患者的临床特征见表1

表1  入组患者临床特征
Tab. 1  Clinical characteristics of the enrolled patients

2.2 多模态融合实验

       多模态融合结果显示,训练集的最优准确率为91.3%、测试集为88.7%,ROC曲线(图4)显示训练集的AUC为0.903 [95%置信区间(confidence interval, CI):0.845~0.961],测试集的AUC为0.904(95% CI:0.842~0.966),训练集的敏感度为86.4%、特异度为94.5%,测试集的敏感度为90.5%,特异度为87.5%。

图4  在训练集和测试集中预测胶质瘤IDH突变的ROC,横轴表示特异度,纵轴表示敏感度。4A:训练集ROC;4B:粉色曲线为测试集ROC。IDH:异柠檬酸脱氢酶;ROC:受试者工作特征曲线,AUC:曲线下面积。
图5  模型校准曲线图。
Fig. 4  ROC for prediction of IDH mutations in glioma in training and test sets, where horizontal axis represents specificity and vertical axis represents sensitivity. 4A: the ROC for the training set; 4B: the ROC for the test set. IDH: isocitrate dehydrogenase; ROC: receiver operating characteristic; AUC: area under the curve.
Fig. 5  Model calibration curves.

2.3 消融实验

       消融实验结果显示训练集与测试集的准确率分别为83.3%、83.0%,AUC分别为0.852(95% CI:0.799~0.905)、0.854(95% CI:0.800~0.908),虽然消融实验仍然能取得较好的预测结果,但其效果差于多模态特征融合实验,由此证明多模态融合的方法在胶质瘤IDH突变状态分类预测上具有一定优势。

2.4 模型校准

       模型校准曲线如图5所示,用于评价模型预测结果与实际情况的吻合程度,模型预测的校准曲线靠近对角线,这表明模型预测的IDH类型与临床实际情况吻合度高,模型显示出高可靠性和准确性,在分类预测IDH突变状态方面具有一定的应用价值。

2.5 结果分析

       实验结果表明,在训练集和测试集上,本文所提出模型的准确率、AUC均优于作者前期研究中常规MRI影像组学模型(AUC=0.862、准确率=85.3%)以及单独使用DenseNet网络搭建的横向对比模型(AUC=0.854、准确率=83.0%)。通过ROC曲线分析,本方法能够有效预测胶质瘤IDH突变状态,达到了较好的效果。DeLong检验结果显示多模态融合方法和消融方法两种方法的模型性能差异具有统计学意义(P<0.05),这说明所提出模型的性能的确受益于多模态潜在相关性,该模型在预测脑胶质瘤IDH突变方面比传统方法有更高的准确率。

3 讨论

       胶质瘤是一种高度致命性的脑肿瘤,影响着大量患者的生命质量。在胶质瘤的治疗中,准确的分子诊断至关重要,可以辅助医生制订最优治疗方案。其中,IDH基因是一种重要的分子标志物,在细胞代谢中扮演着重要角色[27],在胶质瘤中,IDH突变的发生率很高,尤其是在低级别的胶质瘤中。这些肿瘤患者的生存率较高,且对治疗的反应也较好。因此可以认为IDH基因状态的预测可以为胶质瘤的分类和预后提供有价值的信息。本研究针对这一问题提出了一种多模态融合的胶质瘤IDH突变状态分类方法,相比于影像组学方法,深度学习网络可以实现自动化特征提取。MRI序列选择上,T1WI、T2WI和CE-T1WI是MRI检查中最常规的三个序列。T1WI对组织的髓鞘、骨质和脂肪等具有良好的对比度,对肿瘤的轮廓有较好的显示。T2WI对富水组织,如肿瘤水肿区,有较好的显示效果。CE-T1WI序列可以显示肿瘤的强化程度,对肿瘤的边缘、大小、分布等方面具有较好的显示效果。因此,本研究选择T1WI、T2WI和CE-T1WI三种常规MRI序列以综合显示肿瘤的位置、大小、形态、边缘等特征,从而提高预测模型的准确性和可靠性。算法上,本文在双线性池化算法的基础上进行改进,使其能对多模态特征融合,有效减少了模型的参数数量和计算时间,保证了高维输出和模型的鲁棒性。从多模态特征融合实验和消融实验结果上看,多模态融合实验所有指标准确率、AUC、敏感度、特异度均高于消融实验,表明本研究在临床应用上具有重要应用前景,可以通过术前预测IDH基因的突变状态实现胶质瘤更精准地诊断,并针对不同的IDH状态采取不同的治疗方案,以提高治疗效果和预后,进而实现个性化治疗。

3.1 多模态融合在胶质瘤IDH突变预测中的价值和创新性

       本研究利用AI方法和多模态融合技术精准预测了胶质瘤患者IDH基因突变状态,进一步揭示了IDH基因突变在胶质瘤临床诊断中的关键作用,具有潜在的临床应用价值。近几年也有相关研究产生类似的研究成果。

       近年来,不少相关研究探讨了多模态MRI在胶质瘤相关预测中的应用。例如,有研究使用了T1WI、T2WI、CE-T1WI和FLAIR四个MRI模态进行特征提取,利用多模态MRI图像实现对胶质瘤亚型的分类预测,并取得了较好的效果[28]。HE等[29]开发了一种基于多模态MRI的无创深度学习方法,实现了胶质瘤的准确分级,准确率高达94.28%。2022年的一项研究采用多模态自适应分割框架,在分割的ROI上提取多层次的混合特征,有效预测了IDH基因突变状态,实验结论与本研究相似:使用多模态混合特征的模型比单独使用影像组学的模型结果更好[30]。此外,2021年的一项研究利用多参数MRI图像数据实现了多形性胶质母细胞瘤IDH基因突变状态预测,最高准确率达到了83%[31]。这些研究结果进一步证实深度学习方法和多模态影像融合技术的合理性与可行性,为本研究的可靠性和临床应用价值提供支撑。

       本研究将AI的方法和多模态融合技术应用到胶质瘤IDH突变状态的预测,相较于既往研究,本研究的创新点在于采用了多模态MRI影像进行脑胶质瘤的诊断,实验证明该方法提高了诊断的准确性,并进一步揭示了IDH基因突变在胶质瘤临床诊断中的关键作用。本研究成果具有潜在的临床应用价值,可以对胶质瘤的早期诊断和治疗产生积极影响,是胶质瘤患者诊断的潜在计算机辅助工具。此外,本研究采用的AI方法和多模态融合技术也为胶质瘤的诊断开辟了新的思路和方法,具有一定的指导意义。

3.2 深度学习与多模态特征融合优越性分析

       近年来,AI技术蓬勃发展,AI以深度学习形式给信息技术在医疗领域的应用开辟了巨大的机会[32, 33],深度学习是AI领域研究的新焦点[34],深度学习模型在训练过程中不断学习样本的内在规律以提升自身能力。相较于影像组学特征提取方法,深度学习算法通过提供的数据来自行学习最佳特征、执行给定的分类任务[35]。由于深度学习在已有研究中表现出强大能力与灵活性,基于深度学习的多模态特征融合正逐步成为研究热点[36]。GUO等[28]使用深度学习网络融合四种模式的MRI图像完成了对星形细胞瘤、少突胶质瘤和胶质母细胞瘤的分类,准确率达到了87.8%。多模态融合实现了多模态特征的有机融合,依靠多种不同结构数据的协同推理,可以帮助AI更准确地理解外部世界[37]。与将特征直接简单串联拼接的传统方法相比,多模态特征的融合注重联系、补充和验证来自多模态的信息,这些信息可以帮助模型更准确地定位关键位置、把握关键信息,从而提供更精准的服务。通过本研究的实验结果可以看出该方法相较于将多模态特征简单串联拼接的普通方法有明显的性能优势。

3.3 DenseNet网络

       根据卷积神经网络的研究现状,深度卷积神经网络亟须解决以下问题:如何减少不必要的计算、如何减少繁杂的参数、如何提高网络的泛化性能[38]。而DenseNet网络在解决这些问题上充分展现了其优越性。DenseNet的优越性能与其特殊的网络结构密不可分,GAO等[19]进行的实验表明密集连接的网络在大多数任务中获得了更明显的性能提升;DenseNet网络结构的核心思想是将每一层的输出作为所有后续层的输入,实现特征重复利用[39],DenseNet高密度的网络结构使得模型参数量大大减少;同时又减轻了“梯度消失”的问题。DenseNet网络之所以能够高效完成分类预测任务,另一个原因是DenseNet网络可以充分利用浅层复杂度低的特点,得到平滑的决策函数,从而具有良好的泛化性能。

3.4 实验结果的必然性、偶然性及意义分析

       本研究实验结果的必然性来源于本文所使用的多模态融合方法的合理性以及MRI序列作为训练数据的优越性。MRI作为一种无创、非放射性的检测手段,已经被广泛应用于神经系统疾病的诊断和治疗,其在胶质瘤IDH突变预测方面的应用也已得到越来越多的关注。本研究所提出的基于多模态融合的分类方法,又充分利用了多个MRI序列之间的互补性,从而提高了模型的预测性能。然而,实验结果的偶然性也不可避免。由于研究样本的数量、质量等因素的限制,模型的预测性能可能会受到一定的影响。在模型的构建过程中,本研究采用的算法、模型参数等因素也可能对实验结果产生一定的影响。

       本研究所提出的模型能够为胶质瘤IDH突变的术前诊断和治疗提供一定的支持和指导,有望帮助医生更加准确地进行诊断和制订治疗方案,从而提高患者的生存率和生活质量。同时,本研究所采用的多模态融合方法也有望为其他疾病的诊断和治疗提供新的思路和方法。

3.5 局限性与未来研究方向

       虽然本研究提出的基于深度学习与多模态融合的胶质瘤IDH突变预测模型具有良好的性能和竞争力,然而,仍有以下局限性:首先是样本量较小,只有256个,而且是单中心的回顾性样本,缺乏多中心验证;其次,并未对所有可能影响胶质瘤IDH突变状态分类预测的因素进行充分考虑和控制,如患者肿瘤的大小和位置等因素。这些因素可能会对模型的性能产生一定的影响。

       今后的研究拟从以下几个方面展开:首先,可以进一步拓展数据集样本量,提高模型的泛化能力;其次,可以探索其他的网络结构和融合方法,进一步提高预测准确率,并加强模型的可解释性;最后,可以考虑将本研究的方法与其他影像学、生物标志物等进行结合,进一步提高胶质瘤诊断和治疗的精准性和效果。

4 结论

       本研究将AI的方法和多模态融合技术应用于胶质瘤IDH突变状态的预测,同时也进一步揭示了IDH基因突变在胶质瘤临床诊断中的关键作用,实验结果表明,本文所提出的模型对于提高胶质瘤的诊断、治疗和预后判断水平具有潜在的临床应用价值,能对胶质瘤的早期诊断和治疗产生积极的影响,有希望成为诊断胶质瘤患者的潜在计算机辅助工具。

[1]
ZHANG D Z, JIANG H P, YE J Y, et al. A novel lncRNA, RPL34-AS1, promotes proliferation and angiogenesis in glioma by regulating VEGFA[J]. J Cancer, 2021, 12(20): 6189-6197. DOI: 10.7150/jca.59337.
[2]
WANG H X, XU T, HUANG Q L, et al. Immunotherapy for malignant glioma: current status and future directions[J]. Trends Pharmacol Sci, 2020, 41(2): 123-138. DOI: 10.1016/j.tips.2019.12.003.
[3]
OSTROM Q T, GITTLEMAN H, LIAO P, et al. CBTRUS Statistical Report: primary brain and other central nervous system tumors diagnosed in the United States in 2010-2014[J/OL]. Neuro Oncol, 2017, 19(suppl_5): v1-v88 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/29117289/. DOI: 10.1093/neuonc/nox158.
[4]
RENI M, MAZZA E, ZANON S, et al. Central nervous system gliomas[J/OL]. Crit Rev Oncol Hematol, 2017, 113: 213-234 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/28427510/. DOI: 10.1016/j.critrevonc.2017.03.021.
[5]
YASUKAWA K, SHIMIZU A, MOTOYAMA H, et al. Impact of remnant carcinoma in situ at the ductal stump on long-term outcomes in patients with distal cholangiocarcinoma[J]. World J Surg, 2021, 45(1): 291-301. DOI: 10.1007/s00268-020-05799-2.
[6]
XIE Y D, HAN Y H, ZHANG X F, et al. Application of new radiosensitizer based on nano-biotechnology in the treatment of glioma[J/OL]. Front Oncol, 2021, 11: 633827 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/33869019/. DOI: 10.3389/fonc.2021.633827.
[7]
KUROKAWA R, KUROKAWA M, BABA A, et al. Major changes in 2021 World Health Organization classification of central nervous system tumors[J]. Radiographics, 2022, 42(5): 1474-1493. DOI: 10.1148/rg.210236.
[8]
ŚLEDZIŃSKA P, BEBYN M G, FURTAK J, et al. Prognostic and predictive biomarkers in gliomas[J/OL]. Int J Mol Sci, 2021, 22(19): 10373 [2022-12-29]. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8508830/. DOI: 10.3390/ijms221910373.
[9]
GRITSCH S, BATCHELOR T T, GONZALEZ CASTRO L N. Diagnostic, therapeutic, and prognostic implications of the 2021 World Health Organization classification of tumors of the central nervous system[J]. Cancer, 2022, 128(1): 47-58. DOI: 10.1002/cncr.33918.
[10]
ROSA M da C, YAMASHITA A S, RIGGINS G J. Evaluation of a DNA demethylating agent in combination with all-trans retinoic acid for IDH1-mutant gliomas[J]. Neuro-Oncology, 2022, 24(5): 711-723. DOI: 10.1093/neuonc/noab263.
[11]
TESILEANU C M S, VALLENTGOED W R, SANSON M, et al. Non-IDH1-R132H IDH1/2 mutations are associated with increased DNA methylation and improved survival in astrocytomas, compared to IDH1-R132H mutations[J]. Acta Neuropathol, 2021, 141(6): 945-957. DOI: 10.1007/s00401-021-02291-6.
[12]
LEI H, LIANG D, ZHUO Y, et al. Magnetic resonance imaging: progresses and perspective[J]. Sci Sin-Vitae, 2020, 50(11): 1285-1295. DOI: 10.1360/ssv-2020-0164.
[13]
FANG L L, WANG X, LIAN Z Y, et al. Supervoxel-based brain tumor segmentation with multimodal MRI images[J]. SIViP, 2022, 16(5): 1215-1223. DOI: 10.1007/s11760-021-02072-4.
[14]
BOLOGNA M, CORINO V, CALARESO G, et al. Baseline MRI-radiomics can predict overall survival in non-endemic EBV-related nasopharyngeal carcinoma patients[J/OL]. Cancers (Basel), 2020, 12(10): 2958 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/33066161/. DOI: 10.3390/cancers12102958.
[15]
MES S W, VAN VELDEN F H P, PELTENBURG B, et al. Outcome prediction of head and neck squamous cell carcinoma by MRI radiomic signatures[J]. Eur Radiol, 2020, 30(11): 6311-6321. DOI: 10.1007/s00330-020-06962-y.
[16]
AGNES S A, ANITHA J, PANDIAN S I A, et al. Classification of mammogram images using multiscale all convolutional neural network (MA-CNN)[J/OL]. J Med Syst, 2019, 44(1): 30 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/31838610/. DOI: 10.1007/s10916-019-1494-z.
[17]
WEI S F, WU W, JEON G, et al. Improving resolution of medical images with deep dense convolutional neural network[J/OL]. Concurrency Computat Pract Exper, 2020, 32(1) [2022-12-29]. https://onlinelibrary.wiley.com/doi/10.1002/cpe.5084. DOI: 10.1002/cpe.5084.
[18]
WU Y, MA Y J, LIU J, et al. Self-attention convolutional neural network for improved MR image reconstruction[J/OL]. Inf Sci (N Y), 2019, 490: 317-328 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/32817993/. DOI: 10.1016/j.ins.2019.03.080.
[19]
GAO X, CHEN T, NIU R Q, et al. Recognition and mapping of landslide using a fully convolutional DenseNet and influencing factors[J/OL]. IEEE J Sel Top Appl Earth Obs Remote Sens, 2021, 14: 7881-7894 [2022-12-29]. https://ieeexplore.ieee.org/document/9502947. DOI: 10.1109/JSTARS.2021.3101203.
[20]
FANG L L, WANG X. Brain tumor segmentation based on the dual-path network of multi-modal MRI images[J/OL]. Pattern Recognit, 2022, 124: 108434 [2022-12-29]. https://www.sciencedirect.com/science/article/abs/pii/S0031320321006105?via%3Dihub. DOI: 10.1016/j.patcog.2021.108434.
[21]
ZHANG W F, YU J, ZHAO W H, et al. DMRFNet: Deep Multimodal Reasoning and Fusion for Visual Question Answering and explanation generation[J]. Inf Fusion, 2021, 72: 70-79. DOI: 10.1016/j.inffus.2021.02.006.
[22]
CHEN R J, LU M Y, WANG J W, et al. Pathomic fusion: an integrated framework for fusing histopathology and genomic features for cancer diagnosis and prognosis[J]. IEEE Trans Med Imaging, 2022, 41(4): 757-770. DOI: 10.1109/TMI.2020.3021387.
[23]
SHAKER, EL-SAPPAGH. Multimodal multitask deep learning model for Alzheimer's disease progression detection based on time series data[J/OL]. Neurocomputing, 2020, 412: 197-215 [2022-12-29]. https://www.sciencedirect.com/science/article/abs/pii/S0925231220309383?via%3Dihub. DOI: 10.1016/j.neucom.2020.05.087.
[24]
HUANG H X, ZHANG J J, ZHANG J, et al. Low-rank pairwise alignment bilinear network for few-shot fine-grained image classification[J/OL]. IEEE Trans Multimed, 2021, 23: 1666-1680 [2022-12-29]. https://ieeexplore.ieee.org/document/9115215. DOI: 10.1109/TMM.2020.3001510.
[25]
HUANG Y Q, LIANG C H, HE L, et al. Development and validation of a radiomics nomogram for preoperative prediction of lymph node metastasis in colorectal cancer[J]. J Clin Oncol, 2016, 34(18): 2157-2164. DOI: 10.1200/JCO.2015.65.9128.
[26]
ZHANG X H, YUAN K, WANG H M, et al. Nomogram to predict mortality of endovascular thrombectomy for ischemic stroke despite successful recanalization[J/OL]. J Am Heart Assoc, 2020, 9(3): e014899 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/31973604/. DOI: 10.1161/JAHA.119.014899.
[27]
FRIEDRICH M, SANKOWSKI R, BUNSE L, et al. Tryptophan metabolism drives dynamic immunosuppressive myeloid states in IDH-mutant gliomas[J]. Nat Cancer, 2021, 2(7): 723-740. DOI: 10.1038/s43018-021-00201-z.
[28]
GUO S C, WANG L H, CHEN Q J, et al. Multimodal MRI image decision fusion-based network for glioma classification[J/OL]. Front Oncol, 2022, 12: 819673 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/35280828/. DOI: 10.3389/fonc.2022.819673.
[29]
HE M, HAN K F, ZHANG Y, et al. Hierarchical-order multimodal interaction fusion network for grading gliomas[J/OL]. Phys Med Biol, 2021, 66(21): 215016 [2022-12-29]. https://iopscience.iop.org/article/10.1088/1361-6560/ac30a1. DOI: 10.1088/1361-6560/ac30a1.
[30]
ZENG H L, XING Z, GAO F L, et al. A multimodal domain adaptive segmentation framework for IDH genotype prediction[J].Int J Comput Assist Radiol Surg, 2022, 17(10): 1923-1931. DOI: 10.1007/s11548-022-02700-5.
[31]
PASQUINI L, NAPOLITANO A, TAGLIENTE E, et al. Deep learning can differentiate IDH-mutant from IDH-wild GBM[J/OL]. J Pers Med, 2021, 11(4): 290 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/33918828/. DOI: 10.3390/jpm11040290.
[32]
MUHAMMAD G, ALHUSSEIN M. Convergence of artificial intelligence and Internet of Things in smart healthcare: a case study of voice pathology detection[J/OL]. IEEE Access, 2021, 9: 89198-89209 [2022-12-29]. https://ieeexplore.ieee.org/document/9458291. DOI: 10.1109/ACCESS.2021.3090317.
[33]
MUKHERJEE S. Emerging frontiers in smart environment and healthcare-A vision[J].Inf Syst Front, 2020, 22(1): 23-27. DOI: 10.1007/s10796-019-09965-3.
[34]
DONG S, WANG P, ABBAS K. A survey on deep learning and its applications[J/OL]. Comput Sci Rev, 2021, 40: 100379 [2022-12-29]. https://www.sciencedirect.com/science/article/abs/pii/S1574013721000198?via%3Dihub. DOI: 10.1016/J.COSREV.2021.100379.
[35]
PARK H, PARK B, LEE S S. Radiomics and deep learning: hepatic applications[J/OL]. Korean J Radiol, 2020, 21: 387-401 [2022-12-29]. https://www.kjronline.org/DOIx.php?id=10.3348/kjr.2019.0752. DOI: 10.3348/kjr.2019.0752.
[36]
HUANG W W, ZHANG H, QUAN X W, et al. A two-level dynamic adaptive network for medical image fusion[J/OL]. IEEE Trans Instrum Meas, 2022, 71: 1-17 [2022-12-29]. https://ieeexplore.ieee.org/document/9762233. DOI: 10.1109/TIM.2022.3169546.
[37]
VALADA A, MOHAN R, BURGARD W. Self-supervised model adaptation for multimodal semantic segmentation[J]. Int J Comput Vis, 2020, 128(5): 1239-1285. DOI: 10.1007/s11263-019-01188-y.
[38]
LIU B S, LV Y B, GU Y, et al. Implementation of a lightweight semantic segmentation algorithm in road obstacle detection[J/OL]. Sensors (Basel), 2020, 20(24): 7089 [2022-12-29]. https://pubmed.ncbi.nlm.nih.gov/33322029/. DOI: 10.3390/s20247089.
[39]
HUANG G, LIU Z, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). July 21-26, 2017, Honolulu, HI, USA. IEEE, 2017: 2261-2269. DOI: 10.1109/CVPR.2017.243.

上一篇 rtfMRI-NF技术调控杏仁核改善失眠障碍的作用
下一篇 Sy-MRI联合DWI在预测胶质瘤MGMT甲基化中的应用
  
诚聘英才 | 广告合作 | 免责声明 | 版权声明
联系电话:010-67113815
京ICP备19028836号-2