分享:
分享到微信朋友圈
X
临床研究
基于特征融合的集成模型分类乳腺癌分子亚型的研究
张雷 杨丽凤 焦雄

Cite this article as: ZHANG L, YANG L F, JIAO X. An integrated model based on feature fusion for classifying molecular subtypes of breast cancer[J]. Chin J Magn Reson Imaging, 2023, 14(3): 58-64.本文引用格式:张雷, 杨丽凤, 焦雄. 基于特征融合的集成模型分类乳腺癌分子亚型的研究[J]. 磁共振成像, 2023, 14(3): 58-64. DOI:10.12015/issn.1674-8034.2023.03.011.


[摘要] 目的 融合传统影像组学特征和卷积神经网络特征,构建分类乳腺癌分子亚型的支持向量机(support vector machine, SVM)集成模型,探讨该模型分类乳腺癌分子分型的价值。材料与方法 回顾性分析Duke-Breast-Cancer-MRI数据集中经病理证实的189例乳腺癌患者病例,其中Luminal型71例、人类表皮生长因子受体-2(human epidermal growth factor receptor 2, HER-2)过表达型57例、三阴性型61例。对所有患者的动态对比增强MRI(dynamic contrast-enhanced MRI, DCE-MRI)图像进行预处理后,按照8∶2的比例分为训练集(n=151)和测试集(n=38)。使用传统影像组学方法和DenseNet169网络模型对患者病变感兴趣区(region of interest, ROI)提取特征,然后使用Spearman相关系数和最小绝对收缩和选择算子(least absolute shrinkage and selection operator, LASSO)算法对传统影像组学特征进一步筛选,最后使用特征融合后的特征组构建SVM集成分类模型。使用宏观平均方法绘制受试者工作特征(receiver operating characteristic, ROC)曲线来判断集成模型的诊断效能。结果 三种乳腺癌分子亚型的传统影像组学特征经过筛选后分别获得51、49、20个特征标签,将其分别与卷积神经网络提取的1664个特征进行融合并建模。其中Luminal型与HER-2过表达型构建的分类器曲线下面积(area under the curve, AUC)值为0.880 [95%置信区间(confidence interval, CI):0.814~0.946],Luminal型与三阴性型构建的分类器AUC值为0.861(95% CI:0.791~0.931),HER-2过表达型与三阴性型构建的分类器AUC值为0.696(95% CI:0.571~0.822)。由3个二分类器组成的SVM集成模型的AUC值为0.820(95% CI:0.725~0.915)。结论 基于特征融合的SVM集成模型在分类三种乳腺癌分子亚型时表现出良好的效果,对术前乳腺癌分子亚型的分类具有重要的指导价值。
[Abstract] Objective To construct an integrated support vector machine (SVM) model for classifying molecular subtypes of breast cancer by fusing traditional radiomics features and convolutional neural network features, and the value of this model for classifying molecular subtypes of breast cancer was explored.Materials and Methods One hundred and eighty-nine patients with pathologically confirmed breast cancer in the Duke-Breast-Cancer-MRI dataset were retrospectively analyzed, including 71 cases of Luminal type, 57 cases of human epidermal growth factor receptor 2 (HER-2) overexpression type, and 61 cases of triple-negative type. After preprocessing the dynamic contrast-enhanced MRI (DCE-MRI) images of all patients, the cases were divided into a training set (n=151) and testing set (n=38) in the ratio of 8∶2. The features were extracted from the region of interest (ROI) of the patient's lesion using traditional radiomics model and the DenseNet169 network model, then the traditional radiomics features were further filtered using Spearman correlation coefficient and the least absolute shrinkage and selection operator (LASSO) algorithm. Finally, the SVM-integrated classification model was constructed using the fused feature set. The macro-averaging method was used to plot the diagnostic effect of the integrated model using the receiver operating characteristic (ROC) curve.Results The traditional imaging histology features of three molecular subtypes of breast cancer were filtered to obtain 51, 49, and 20 feature labels, which were fused and modeled with 1664 features extracted by convolutional neural networks, respectively. The area under the curve (AUC) value of the classifier constructed by Luminal and HER-2 overexpression type was 0.880 [95% confidence interval (CI):0.814-0.946], the AUC value of the classifier constructed by Luminal and triple-negative type was 0.861 (95% CI: 0.791-0.931), and the AUC value of the classifier constructed by HER-2 overexpression type and triple-negative type was 0.696 (95% CI: 0.571-0.822). The AUC value of the SVM integrated model consisting of three binary classifiers was 0.820 (95% CI: 0.725-0.915).Conclusions The integrated SVM model based on feature fusion showed good results in classifying three molecular subtypes of breast cancer, which is an important guide for the preoperative classification of molecular subtypes of breast cancer.
[关键词] 乳腺癌;分子分型;特征融合;支持向量机;磁共振成像
[Keywords] breast cancer;molecular subtypes;feature fusion;support vector machine;magnetic resonance imaging

张雷 1   杨丽凤 2   焦雄 1*  

1 太原理工大学生物医学工程学院,晋中 030600

2 太原理工大学信息与计算机学院,晋中 030600

通信作者:焦雄,E-mail:jiaoxiong@tyut.edu.cn

作者贡献声明:焦雄指导本研究方案的设计、数据分析、论文写作,对稿件重要内容进行了修改;张雷起草和撰写稿件,设计本研究的方案、数据和分析本研究的数据;杨丽凤参与数据分析,对稿件重要内容进行了修改;焦雄获得了山西省自然科学基金面上项目基金资助;全体作者都同意发表最后的修改稿,同意对本研究的所有方面负责,确保本研究的准确性和诚信。


基金项目: 山西省自然科学基金面上项目 201801D121232
收稿日期:2022-10-26
接受日期:2023-03-07
中图分类号:R445.2  R737.9 
文献标识码:A
DOI: 10.12015/issn.1674-8034.2023.03.011
本文引用格式:张雷, 杨丽凤, 焦雄. 基于特征融合的集成模型分类乳腺癌分子亚型的研究[J]. 磁共振成像, 2023, 14(3): 58-64. DOI:10.12015/issn.1674-8034.2023.03.011.

0 前言

       乳腺癌是一种严重危害妇女健康的恶性肿瘤,自2010年以来,其发病率以每年0.5%的速度增长,现为女性肿瘤发病率的首位[1]。乳腺癌在组织形态、病理特征及治疗疗效等方面个体差异明显[2, 3]。根据St Gallen 2013共识[4]将乳腺癌分为4种分子亚型,即Luminal A型、Luminal B型、人类表皮生长因子受体-2(human epidermal growth factor receptor 2, HER-2)过表达型以及三阴性型乳腺癌。不同分子亚型的乳腺癌有不同的临床表现和治疗方案,Luminal A型患者和Luminal B型患者都常见于绝经后的女性,这两种类型在临床中多使用内分泌治疗,通常预后较好;HER-2过表达型的肿瘤形态不规则、恶化程度大,对靶向治疗敏感但预后情况不佳;三阴性型多发生于年轻女性中,恶化程度极高,对靶向治疗、内分泌治疗都不敏感,预后较差[5]。MRI检查能够反映乳腺癌的功能性信息,在乳腺癌的病灶分割、分子分型等方向具有重要临床研究价值。然而传统MRI检查需要由诊断医师对病灶影像进行分析后做出诊断,容易受到医师主观经验的影响。因此,越来越多的研究者尝试使用传统影像组学和卷积神经网络对乳腺癌分子亚型进行分类。

       传统影像组学是通过使用特征提取算法对图像进行定量分析,比如有研究者使用灰度依赖矩阵(gray level dependence matrix, GLDM)、局部二值模式(local binary pattern, LBP)、高斯-拉普拉斯(Laplacian of Gaussian, LOG)[6, 7, 8],然后使用传统统计模式来分类和预测,如支持向量机(support vector machine, SVM)、随机森林等[9, 10]。传统影像组学具有很好的解释性与说服力,但面临特征提取不全面,高度依赖于提取算法的缺点。近年来基于深度学习的乳腺癌分类研究开始大量兴起[11, 12]。有研究者针对乳腺癌病理图像提出一个新的卷积神经网络,该网络可通过卷积操作来提取图像的深层特征信息,再训练SVM分类器实现乳腺癌四分类任务(良性、原位癌、浸润性癌和正常)[13]。也有研究者以结合迁移学习的VGG16、Inception-V3和ResNet-V2网络搭建集成模型,实现乳腺癌的良恶性分类[14]。相较于传统影像组学,这些基于深度学习的乳腺癌分类研究方法可获得更高的准确性,但无法同时获得图像的浅层特征(如纹理、颜色、形状等)和深层次语义特征,因此容易产生过拟合的问题,并且缺乏可解释性和鲁棒性。

       本研究将传统影像组学提取的纹理特征和卷积神经网络提取的深层次语义特征融合起来,旨在构建分类乳腺癌分子亚型的SVM集成模型,探讨该模型分类乳腺癌分子分型的价值,为乳腺癌早期诊断和个性化治疗方案提供临床参考。

1 材料与方法

1.1 研究对象

       回顾性分析美国国家癌症研究所(National Cancer Institute, NCI)癌症影像档案中存储的乳腺癌MRI公共数据集Duke-Breast-Cancer-MRI[15, 16]。该数据集由Duke医院单一机构回顾性收集组成,包含2000年1月1日至2014年3月23日在Duke医院活检证实的922名浸润性乳腺癌患者[17]。这些患者进行了术前MRI检查,图像以DICOM格式提供,包含不压脂和压脂的T1WI平扫序列以及动态对比增强MRI(dynamic contrast-enhanced MRI, DCE-MRI)序列。本研究采用DCE-MRI强化后第一期图像[15]。由于本研究使用的图像数据来源于公开数据库,因此免除受试者知情同意,同时该研究遵守《赫尔辛基宣言》和《TCIA数据使用政策》。

       本研究在Duke-Breast-Cancer-MRI数据集上进行病例数据筛选。纳入标准:(1)经病理证实为乳腺癌的女性;(2)临床资料及病理资料完整;(3)由美国通用电气医疗集团设备拍摄的病例。排除标准:DCE-MRI图像质量较差,显示不清晰。最终采用189例病例作为本次研究的数据集,患者的基本信息:年龄25~80(52±11)岁;发生转移7例(3.7%),无转移182例(96.3%);绝经114例(60.3%),未绝经75例(39.7%)。将189例病例按照8∶2的比例随机划分为训练集(n=151)和测试集(n=38)。患者选择结果如图1所示。

图1  患者选择流程图。HER-2:人类表皮生长因子受体-2。
Fig. 1  Flow chart of patient selection. HER-2: human epidermal growth factor receptor 2.

1.2 设备与扫描方法

       Duke-Breast-Cancer-MRI数据集均采用美国通用电气医疗集团的1.5 T或3.0 T(SIGNA HDx和SIGNA HDxt)扫描仪,将患者置于俯卧位以进行扫描。DCE-MRI序列扫描参数如下:层厚1.1~2.2 mm,重复时间4.78~7.39 ms,回波时间2.23~2.69 ms,矩阵340×340~384×384,翻转角(flip angle, FA)10°,视野(field of view, FOV)270 mm×270 mm~430 mm×430 mm。

1.3 图像分析和诊断方法

       Duke-Breast-Cancer-MRI数据集带有专业医师标注的病灶信息,有包含完整病变区域的最小矩形坐标、病变开始的层面和结束的层面。图像中肿瘤的位置以三维(three dimension, 3D)边界框坐标的形式给出。在本研究中,每个病例按照医师的标注选取病灶区域最大的一张图片及其前后各一张共三张图片用于后续的分析研究。

       Duke-Breast-Cancer-MRI数据集中的所有病例都采用免疫组化法进行检测,根据雌激素受体(estrogen receptor, ER)、孕激素受体(progesterone receptor, PR)和HER-2的表达情况分为三种亚型:(1)Luminal型:ER(+)、PR(+)、HER-2(-);(2)HER-2过表达型:ER(-)、PR(-)、HER-2(+);(3)三阴性型:ER(-)、PR(-)、HER-2(-)。ER和PR根据Allred评分划分为高表达与低表达,Allred评分>3为高表达。HER-2根据荧光原位杂交法(fluorescence in situ hybridization, FISH)来判断,FISH ratio(HER-2)>2.2为高表达。

1.4 乳腺病变区域分割

1.4.1 图像标准化

       本研究选取的是通用电气医疗集团设备采集的影像,数据范围仍有细微的区别,因而在处理之前对所有采用的数据(1.5 T和3.0 T)进行归一化处理[18],将图像强度放缩到相同范围,以此来减少场强和扫描协议不同带来的偏差。

1.4.2 图像分割

       根据数据集自带的医师标注坐标从图像上画取感兴趣区(region of interest, ROI),采用基于遗传算法的大津阈值分割算法[19]并手动选择每张ROI图片的病灶种子点,从而得到乳腺肿瘤Mask图像。分割流程如图2所示。

图2  图像分割流程图2A:女,62岁,左乳Luminal型乳腺癌;2B:女,51岁,左乳HER-2过表达型乳腺癌;2C:女,73岁,左乳三阴性型乳腺癌;2D~2F:三类患者按医生标注切取的病灶感兴趣区域;2G~2I:三类患者使用算法分割的Mask图像。
Fig. 2  Image segmentation flow chart. 2A: Female, 62 years old, Luminal type breast cancer in the left breast; 2B: Female, 51 years old, HER-2 overexpressed breast cancer in the left breast; 2C: Female, 73 years old, triple-negative breast cancer in the left breast; 2D-2F: Three types of patients are marked by the physician with the area of interest of the lesion cut; 2G-2I: Mask images segmented using algorithms for three types of patients.

1.5 特征提取

1.5.1 影像组学特征提取

       选取同一序列肿瘤横截面最大的图像及其前后各一张图像作为构建网络模型的图像数据。将Dicom格式的图像转换为灰度PNG格式的图片,使用开源Python软件(3.7.10版本,http://www.python.org)中的PyRadiomics模块[20]提取影像组学特征,总共提取了1125个特征,包括:(1)形状特征9个;(2)一阶强度特征18个;(3)纹理特征75个;(4)变换特征1023个。

1.5.2 深度特征提取

       为减少训练模型对数据量的需求,使用了迁移学习的方法对模型进行参数初始化。网络模型的学习率决定了梯度的比例因子,过高的学习率会导致损失函数超过最优值,而学习率过低则会导致训练时间过长,所以本研究对网络增加了ReduceLROnPlateau回调函数[21]。该函数监控模型损失值不再下降、或者分类准确率不再上升时将学习率下调为原本的1/10,这样有助于快速又精确地获得最优模型。

       大规模标注的医学影像数据集不易获取,因此本研究对ROI图像进行了不平衡处理和数据增强处理。189例病例使用了567张原始图像,其中训练集151个病例共453张图像,对训练集的图像采用旋转变换、翻转变换、颜色抖动等方法进行扩充。首先将原始图像顺时针旋转45°、90°、135°、180°、225°、270°、315°,然后通过镜像翻转对数据进行不平衡处理,最后使用颜色随机抖动的方法对平衡后的图像再扩增,扩充后训练集有6000张图片。网络训练时仍使用归一化将所有数据放缩到0到1之间,使网络收敛更加平顺[22]

       本研究在上述操作基础上对比了VGG16、VGG19、DenseNet121、DenseNet169、DenseNet201、ResNet、MobileNet等多个模型,效果如图3所示。MobileNet、DenseNet169、DenseNet121、DenseNet201在训练集上表现较优,准确率在75%~80%之间(χ2=1.541,P=0.672);DenseNet121、DenseNet169、Xception、DenseNet201在测试集上表现较优,准确率在57%~65%之间(χ2=0.518,P=0.914)。因此本研究选择综合效果最好的DenseNet169模型作特征提取器,从最后一个全连接层提取了1664个卷积神经网络特征。

图3  各网络模型在训练集(3A)和测试集(3B)上的准确率。
Fig. 3  Accuracy of each network model on the training set (3A) and test set (3B).

1.6 分类模型构建

       使用Spearman相关系数进行分析和最小绝对收缩和选择算子(least absolute shrinkage and selection operator, LASSO)算法相结合的方法进行特征降维,筛选出与乳腺癌分子分型相关的特征,将其和卷积神经网络特征进行特征融合构成新的特征组,使用该特征组构建SVM集成分类模型(图4)。本研究中该SVM集成分类模型共包含3个SVM二分类模型,即:分类Luminal型与HER-2过表达型的模型一;分类Luminal型与三阴性型的模型二;分类HER-2过表达型与三阴性型的模型三。

图4  影像组学和深度学习构建模型流程图。LASSO:最小绝对收缩和选择算子;SVM:支持向量机;AUC:曲线下面积。
Fig. 4  Flowchart for building model with radiomics and deep learning. LASSO: least absolute shrinkage and selection operator; SVM: support vector machine; AUC: area under the curve.

1.7 统计学分析

       采用Python软件(3.7.10版本,http://www.python.org)进行统计学分析。使用Spearman相关系数进行分析后去除高相关性的相似特征,Spearman相关系数大于0.8的特征认为是高度相关的特征,两个相关的特征中只保留一个。使用LASSO算法进行10折交叉验证筛选特征,并删除特征系数为0的特征。SVM使用径向基核函数(radius basis function, RBF)。

       计量资料符合正态分布时以均数±标准差(x¯±s)表示,计数资料通过频数和百分比(%)描述。使用准确率、受试者工作特征(receiver operating characteristic, ROC)曲线及曲线下面积(area under the curve, AUC)来评估各二分类模型的性能。率的比较使用卡方检验分析。DeLong检验评价各模型AUC差异是否具有统计学意义。多分类ROC曲线绘制有宏观平均法和微观平均法两种,宏观平均法给予每个类别同等的权重,微观平均法倾向于给数目较大的类别更多的权重。在本研究中三个分子亚型病例数目差距较小,因此三分类ROC分析方法采用宏观平均计算方式:首先对三分类中的每一个类别进行一次二分类分析,计算出每一个类别的真阳性率(true positive rate, TPR)与假阳性率(false positive rate, FPR),将所有得到的TPR与FPR取平均即可得到宏观平均TPR与FPR,再根据得到的宏观平均TPR与FPR绘制ROC曲线并计算宏观平均AUC(macro-averaging AUC, macro-AUC)[23, 24]P<0.05为差异有统计学意义。

2 结果

2.1 特征选择与融合

       提取每位患者T1WI增强序列图像的1125个特征,使用Spearman相关系数分析并去除高相关性的相似特征,然后使用LASSO算法进行特征降维,在特征选择的过程中,LASSO算法正则项参数alpha范围设定为(10-4,102),取相同间隔的50个数,10折交叉验证迭代100 000次。对三组影像组学特征进行特征筛选得到的特征数分别为51、49、20。LASSO算法的结果如图5所示。将卷积网络特征和筛选后的传统影像组学特征融合构成新的特征组用于后续研究。

图5  三类乳腺癌患者的LASSO特征筛选图和不同lambda下每一折交叉验证的MSE结果图。5A~5B:Luminal型乳腺癌患者,lambda值为0.00372759372;5C~5D:HER-2过表达型乳腺癌患者,lambda值为0.00655128556;5E~5F:三阴性型乳腺癌患者,lambda值为0.01151395399。LASSO:最小绝对收缩和选择算子;HER-2:人类表皮生长因子受体-2;MSE:均方误差。
Fig. 5  Plots of LASSO feature selection for the three categories of patients with breast cancer and MSE results for each fold of cross-validation under different lambda. 5A-5B: Patients with luminal type breast cancer, lambda: 0.00372759372; 5C-5D: Patients with HER-2 overexpression type breast cancer, lambda: 0.00655128556; 5E-5F: Patients with triple-negative type breast cancer, lambda: 0.01151395399. LASSO: least absolute shrinkage and selection operator; HER-2: human epidermal growth factor receptor 2; MSE: mean square error.

2.2 模型构建

       使用SVM进行三分类通常有一对一和一对多两种方法。一对多是把某类样本归为一类,其他样本整体归为一类,因此容易导致样本不平衡,会影响到分类效果[25],所以本研究使用了一对一的方法。这种方法是在任意两个样本之间构造一个SVM分类器,构建k个类别的样本需要设计k(k-1)/2个SVM。当对一个未知样本进行分类时,最后得票数最多的类别即为该未知样本的类别,当得票数相同时比较每个分类器预测的概率值,选择概率最大的预测类别为该未知样本的类别,这种策略称为“投票法”[26]。SVM多分类结构如图6所示。本研究中SVM集成模型由以下三个分类器模型构成:(1)区分Luminal型与HER-2过表达型的模型一;(2)区分Luminal型与三阴性型的模型二;(3)区分HER-2过表达型与三阴性型的模型三。

图6  支持向量机集成模型。HER-2:人类表皮生长因子受体-2。
Fig. 6  Support vector machine integration model. HER-2: human epidermal growth factor receptor 2.

2.3 结果分析

       本研究基于特征融合构造的SVM集成模型的分类准确率为71.6%,相对于只使用传统影像组学特征的分类准确率59.7%和使用DenseNet169的分类准确率56.2%,分别提高了11.9%和15.4%。SVM集成模型的macro-AUC为0.820(表1)。DeLong检验显示,测试集的SVM集成模型macro-AUC值高于只使用传统影像组学特征构建的模型(Z=3.821,P<0.05)及DenseNet169卷积神经网络模型(Z=3.852,P<0.05),传统影像组学特征构建的模型与DenseNet169卷积神经网络模型的AUC差异无统计学意义(P=0.675)。以上结果显示该SVM集成模型的分类准确率及macro-AUC均高于另外两种模型,分类效果最优。

       综上所述,本文最终选择的SVM集成模型效果最佳,能更好地对乳腺癌进行三种分子亚型分类。

表1  所有模型在测试集上的分类效能
Tab. 1  Classification performance of all models on the test set

3 讨论

       不同乳腺癌的分子亚型有不同的治疗方案,准确地诊断出乳腺癌患者的分子亚型对医治尤为关键。本文从实际的需求出发,以乳腺癌MRI图像为研究对象,分别使用影像组学方法和基于迁移学习的DenseNet169网络模型进行特征提取。计算影像组学特征的Spearman相关系数,保留一个具有高相关性的特征,使用LASSO算法对剩余特征进行筛选,最后使用融合后的特征构建SVM分类集成模型并对模型进行评估。在测试集上该模型准确率达到71.6%,macro-AUC值达到0.820,具有较高的可靠性。本研究证明了乳腺癌的影像组学特征和卷积神经网络特征相结合能够弥补单一特征结构的不足,有效提高模型的分类能力。

3.1 融合特征对乳腺癌分子分型的诊断价值

       研究表明乳腺癌具有高异质性,不同分子亚型的乳腺癌在肿块形态、肿块边缘及强化方式上存在差异[27, 28]。通过图像像素值及几何关系等多阶参数的计算公式可提取传统影像组学特征,这些特征对分类结果具有很好的解释性与说服力。王世健等[29]使用半自动提取特征方法提取了65维的DCE-MRI影像特征,并通过逻辑回归的方法判断出影像特征和分子分型之间具有关联性。李薇等[30]提取了脂肪抑制T2WI和DCE-T1WI的影像组学特征,并将特征融合构成联合序列的影像组学特征组,采用logistic回归算法建立模型,最终在分类Luminal B型和非Luminal B型时AUC值达到0.808。王洪杰等[31]基于扩散加权成像(diffusion-weighted imaging, DWI)、体素内不相干运动(intravoxel incoherent motion, IVIM)及扩散峰度成像(diffusion kurtosis imaging, DKI)序列构建三联合模型,在乳腺癌良恶鉴别时AUC值为0.915。虽然传统影像组学特征在对乳腺癌分子亚型进行分类上有了很大的研究进展,但仍面临高度依赖于提取算法的缺点,导致特征提取不够全面,可以获得图像的纹理特征但缺乏深层次的语义特征,在分类时会因为部分信息缺失而造成误判。

       神经网络在前端输入原始图像后末端直接输出结果,不需要对特征进行人为设定,会自动进行学习并创建特征,同时神经网络卷积运算可获取图像的深层次语义特征并更加关注特征之间的位置关系[32]。赵清一等[33]使用基于迁移学习的Xception网络模型进行特征提取,最后使用SVM分类器分类Luminal B和非Luminal B两种乳腺癌,AUC值为0.787,证明深度模型和传统分类器结合可有效提高模型的效果。SUN等[34]使用三个序列图像各构成一个卷积神经网络模型,然后3个子模型基于加权投票构建集成模型来研究Luminal型和非Luminal型,AUC值为0.867,证明集成模型获得的特征更加丰富,更有利于对分子亚型的区分。神经网络模型相对于传统影像组学模型更注重于使用深层次语义特征来对乳腺癌分子亚型进行分类,但同时它也丢失了图像基础的纹理特征信息。

       因此本研究构建基于特征融合的集成模型,在保留传统影像组学大部分纹理特征的同时增加了深层次语义特征,更能全面体现乳腺癌的生物学信息,提高了乳腺癌分子亚型分类的准确率,增加了一定的解释性与说服力。

3.2 本研究的局限性

       本研究也有许多不足之处:(1)本研究为回顾性研究,选择的样本存在一定的选择性偏移;(2)本研究为单中心研究,并且样本量相对较小,后续可通过添加外部验证集的方法验证该模型,以更好地证明模型效能;(3)模型的特征筛选器及最终分类器的选择单一,可以将多种筛选器和分类器组合,挑选出最优的模型。

4 结论

       综上所述,本研究基于特征融合构建的SVM集成模型在分类三种乳腺癌分子亚型时表现出良好的效果,对术前乳腺癌分子亚型的分类具有重要的指导价值。

[1]
GIAQUINTO A N, SUNG H, MILLER K D, et al. Breast cancer statistics, 2022[J]. CA Cancer J Clin, 2022, 72(6): 524-541. DOI: 10.3322/caac.21754.
[2]
SIEGEL R L, MILLER K D, JEMAL A. Cancer statistics, 2015[J]. CA A Cancer J Clin, 2015, 65(1): 5-29. DOI: 10.3322/caac.21254.
[3]
邵志敏, 吴炅, 江泽飞, 等. 中国乳腺癌新辅助治疗专家共识(2022年版)[J]. 中国癌症杂志, 2022, 32(1): 80-89. DOI: 10.19401/j.cnki.1007-3639.2022.01.011.
SHAO Z M, WU J, JIANG Z F, et al. Expert consensus on neoadjuvant treatment of breast cancer in China(2021 edition)[J]. China Oncol, 2022, 32(1): 80-89. DOI: 10.19401/j.cnki.1007-3639.2022.01.011.
[4]
GOLDHIRSCH A, WINER E P, COATES A S, et al. Personalizing the treatment of women with early breast cancer: highlights of the St Gallen International Expert Consensus on the Primary Therapy of Early Breast Cancer 2013[J]. Ann Oncol, 2013, 24(9): 2206-2223. DOI: 10.1093/annonc/mdt303.
[5]
钟世燕, 雷益, 余娟, 等. 磁共振成像在乳腺癌分子分型中的研究进展[J]. 中国CT和MRI杂志, 2022, 20(3): 186-188. DOI: 10.3969/j.issn.1672-5131.2022.03.062.
ZHONG S Y, LEI Y, YU J, et al. Research progress of magnetic resonance imaging in molecular typing of breast cancer[J]. Chin J CT MRI, 2022, 20(3): 186-188. DOI: 10.3969/j.issn.1672-5131.2022.03.062.
[6]
秦石泽, 黄小华, 王芳, 等. T2WI-FS影像组学联合影像学特征在预测HIFU消融子宫肌瘤疗效中的价值[J]. 磁共振成像, 2022, 13(5): 59-63, 69. DOI: 10.12015/issn.1674-8034.2022.05.011.
QIN S Z, HUANG X H, WANG F, et al. Value of T2WI-FS radiomics combined with imaging features in predicting the efficacy of HIFU ablation of hysteromyoma[J]. Chin J Magn Reson Imaging, 2022, 13(5): 59-63, 69. DOI: 10.12015/issn.1674-8034.2022.05.011.
[7]
许蓉, 王直, 宗涛. 基于改进高斯滤波的医学图像边缘增强[J]. 信息技术, 2020, 44(4): 75-78. DOI: 10.13274/j.cnki.hdzj.2020.04.016.
XU R, WANG Z, ZONG T. Edge enhancement of medical image based on improved Gaussian filter[J]. Inf Technol, 2020, 44(4): 75-78. DOI: 10.13274/j.cnki.hdzj.2020.04.016.
[8]
LIU L, LAO S Y, FIEGUTH P W, et al. Median robust extended local binary pattern for texture classification[J]. IEEE Trans Image Process, 2016, 25(3): 1368-1381. DOI: 10.1109/TIP.2016.2522378.
[9]
CHAUHAN V K, DAHIYA K, SHARMA A. Problem formulations and solvers in linear SVM: a review[J].Artif Intell Rev, 2019, 52(2): 803-855. DOI: 10.1007/s10462-018-9614-6.
[10]
RIGATTI S J. Random forest[J]. J Insur Med, 2017, 47(1): 31-39. DOI: 10.17849/insm-47-01-31-39.1.
[11]
张顺, 龚怡宏, 王进军. 深度卷积神经网络的发展及其在计算机视觉领域的应用[J]. 计算机学报, 2019, 42(3): 453-482. DOI: 10.11897/SP.J.1016.2019.00453.
ZHANG S, GONG Y H, WANG J J. The development of deep convolution neural network and its applications on computer vision[J]. Chin J Comput, 2019, 42(3): 453-482. DOI: 10.11897/SP.J.1016.2019.00453.
[12]
王嘉欣, 雷志春. 一种基于特征融合的卷积神经网络人脸识别算法[J]. 激光与光电子学进展, 2020, 57(10): 339-345. DOI: 10.3788/LOP57.101508.
WANG J X, LEI Z C. A convolutional neural network based on feature fusion for face recognition[J]. Laser & Optoelectron Prog, 2020, 57(10): 339-345. DOI: 10.3788/LOP57.101508.
[13]
ARAÚJO T, ARESTA G, CASTRO E, et al. Classification of breast cancer histology images using Convolutional Neural Networks[J/OL]. PLoS One, 2017, 12(6): e0177544 [2022-10-25]. https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0177544. DOI: 10.1371/journal.pone.0177544.
[14]
孙福权, 丛成龙, 张琨, 等. 基于多模型卷积神经网络的乳腺癌病理医疗图像良恶性诊断[J]. 小型微型计算机系统, 2020, 41(4): 732-735. DOI: 10.3969/j.issn.1000-1220.2020.04.010.
SUN F Q, CONG C L, ZHANG K, et al. Benign and malignant diagnosis of breast cancer histopathological image based on multi-model neural network[J]. J Chin Comput Syst, 2020, 41(4): 732-735. DOI: 10.3969/j.issn.1000-1220.2020.04.010.
[15]
SAHA A, HAROWICZ M R, GRIMM L J, et al. A machine learning approach to radiogenomics of breast cancer: a study of 922 subjects and 529 DCE-MRI features[J]. Br J Cancer, 2018, 119(4): 508-516. DOI: 10.1038/s41416-018-0185-8.
[16]
SAHA A, HAROWICZ M R, GRIMM L J, et al. Dynamic contrast-enhanced magnetic resonance images of breast cancer patients with tumor locations[DS/OL]. Cancer Imag Archiv, 2021 [2022-10-25]. https://wiki.cancerimagingarchive.net/x/15MvB. DOI: 10.7937/TCIA.e3sv-re93.
[17]
CLARK K, VENDT B, SMITH K, et al. The Cancer Imaging Archive (TCIA): maintaining and operating a public information repository[J]. J Digit Imaging, 2013, 26(6): 1045-1057. DOI: 10.1007/s10278-013-9622-7.
[18]
KOO K M, CHA E Y. Image recognition performance enhancements using image normalization[J].Hum Centric Comput Inf Sci, 2017, 7(1): 1-11. DOI: 10.1186/s13673-017-0114-5.
[19]
KUMARI R, GUPTA N, KUMAR N. Image segmentation using improved genetic algorithm[J]. Int J Eng Adv Technol, 2020, 9(1): 1784-1792. DOI: 10.35940/ijeat.F9063.109119.
[20]
VAN GRIETHUYSEN J J M, FEDOROV A, PARMAR C, et al. Computational radiomics system to decode the radiographic phenotype[J/OL]. Cancer Res, 2017, 77(21): e104-e107 [2022-10-25]. https://pubmed.ncbi.nlm.nih.gov/29092951/. DOI: 10.1158/0008-5472.CAN-17-0339.
[21]
WANG Y N, HU C Y, KWOK T, et al. DEMoS: a deep learning-based ensemble approach for predicting the molecular subtypes of gastric adenocarcinomas from histopathological images[J]. Bioinformatics, 2022, 38(17): 4206-4213. DOI: 10.1093/bioinformatics/btac456.
[22]
刘建伟, 赵会丹, 罗雄麟, 等. 深度学习批归一化及其相关算法研究进展[J]. 自动化学报, 2020, 46(6): 1090-1120. DOI: 10.16383/j.aas.c180564.
LIU J W, ZHAO H D, LUO X L, et al. Research progress on batch normalization of deep learning and its related algorithms[J]. Acta Autom Sin, 2020, 46(6): 1090-1120. DOI: 10.16383/j.aas.c180564.
[23]
FAWCETT T. An introduction to ROC analysis[J]. Pattern Recognit Lett, 2006, 27(8): 861-874. DOI: 10.1016/j.patrec.2005.10.010.
[24]
RIBEIRO B, SILVA C. RVM ensemble for text classification[J]. Int J Comput Intell Res, 2007, 3(1): 31-35. DOI: 10.5019/j.ijcir.2007.81.
[25]
KANG S, CHO S, KANG P. Constructing a multi-class classifier using one-against-one approach with different binary classifiers[J]. Neurocomputing, 2015, 149: 677-682. DOI: 10.1016/j.neucom.2014.08.006.
[26]
WANG R, LI W, LI R, et al. Automatic blur type classification via ensemble SVM[J]. Signal Process Image Commun, 2019, 71: 24-35. DOI: 10.1016/j.image.2018.08.003.
[27]
CHO N. Imaging features of breast cancer molecular subtypes: state of the art[J]. J Pathol Transl Med, 2021, 55(1): 16-25. DOI: 10.4132/jptm.2020.09.03.
[28]
陈永升, 孙胜君, 于晓军, 等. 不同分子亚型乳腺癌3.0 T MRI影像表现分析[J]. 磁共振成像, 2021, 12(2): 24-28. DOI: 10.12015/issn.1674-8034.2021.02.006.
CHEN Y S, SUN S J, YU X J, et al. 3.0 T MRI features of breast cancer in different molecular types[J]. Chin J Magn Reson Imaging, 2021, 12(2): 24-28. DOI: 10.12015/issn.1674-8034.2021.02.006.
[29]
王世健, 范明, 张娟, 等. 乳腺癌DCE-MRI影像特征与分子分型的关联性研究[J]. 中国生物医学工程学报, 2016, 35(5): 533-540. DOI: 10.3969/j.issn.0258-8021.2016.05.004.
WANG S J, FAN M, ZHANG J, et al. Association between DCE-MRI features and molecular subtypes in breast cancer[J]. Chin J Biomed Eng, 2016, 35(5): 533-540. DOI: 10.3969/j.issn.0258-8021.2016.05.004.
[30]
李薇, 平学军, 刘宇豪, 等. MRI影像组学特征预测乳腺癌分子分型的价值[J]. 临床放射学杂志, 2021, 40(9): 1709-1714. DOI: 10.13437/j.cnki.jcr.2021.09.012.
LI W, PING X J, LIU Y H, et al. Value of MRI imaging features in predicting molecular typing of breast cancer[J]. J Clin Radiol, 2021, 40(9): 1709-1714. DOI: 10.13437/j.cnki.jcr.2021.09.012.
[31]
王洪杰, 王唯伟, 吕四强, 等. 多参数扩散加权成像对乳腺TIC-Ⅱ型病变良、恶性的鉴别价值[J]. 磁共振成像, 2022, 13(9): 18-24. DOI: 10.12015/issn.1674-8034.2022.09.004.
WANG H J, WANG W W, LÜ S Q, et al. Value of multi-parameter diffusion weighted imaging in the differential diagnosis of benign and malignant TIC type Ⅱ breast lesions[J]. Chin J Magn Reson Imaging, 2022, 13(9): 18-24. DOI: 10.12015/issn.1674-8034.2022.09.004.
[32]
陈志庚, 李响, 沙琳. 机器学习基于MRI预测乳腺癌对新辅助化疗反应的研究进展[J]. 磁共振成像, 2021, 12(12): 102-104. DOI: 10.12015/issn.1674-8034.2021.12.024.
CHEN Z G, LI X, SHA L. Research progress of machine learning for predicting breast cancer response to neoadjuvant chemotherapy based on MRI[J]. Chin J Magn Reson Imaging, 2021, 12(12): 102-104. DOI: 10.12015/issn.1674-8034.2021.12.024.
[33]
赵清一, 林勇. 基于迁移学习和支持向量机的乳腺癌分子分型预测[J]. 中国医学物理学杂志, 2022, 39(5): 635-639. DOI: 10.3969/j.issn.1005-202X.2022.05.019.
ZHAO Q Y, LIN Y. Breast cancer molecular typing prediction based on transfer learning and support vector machine[J]. Chin J Med Phys, 2022, 39(5): 635-639. DOI: 10.3969/j.issn.1005-202X.2022.05.019.
[34]
SUN R, MENG Z J, HOU X W, et al. Prediction of breast cancer molecular subtypes using DCE-MRI based on CNNs combined with ensemble learning[J/OL]. Phys Med Biol, 2021, 66(17) [2022-10-25]. https://iopscience.iop.org/article/10.1088/1361-6560/ac195a. DOI: 10.1088/1361-6560/ac195a.

上一篇 双参数动脉自旋标记成像在评估急性缺血性卒中侧支循环和预后中的应用价值
下一篇 mDixon-Quant技术在乳腺浸润性导管癌诊断与预后评估中的价值研究
  
诚聘英才 | 广告合作 | 免责声明 | 版权声明
联系电话:010-67113815
京ICP备19028836号-2