分享:
分享到微信朋友圈
X
综述
人工智能在椎骨骨折影像学研究中的应用进展
张蕾 孟令惠

本文引用格式:张蕾, 孟令惠. 人工智能在椎骨骨折影像学研究中的应用进展[J]. 磁共振成像, 2026, 17(2): 194-199, 206. DOI:10.12015/issn.1674-8034.2026.02.029.


[摘要] 影像学在脊柱椎骨骨折(vertebral fracture, VF)的识别及诊断中发挥着重要作用,尤其对临床制订治疗方案至关重要。近年来,人工智能(artificial intelligence, AI)技术迅猛发展,在VF的图像分割、检测与诊断中展现出巨大潜力。然而,现有综述多局限于骨折检测或病因分类等单一视角,未能系统梳理该领域的整体进展与核心挑战。因此,本文对AI在脊柱VF影像学中的应用进行综述,涵盖其在脊柱VF分割与标注、检测与诊断等方面的技术方法与研究现状,指出当前研究存在数据集局限、依赖单模态影像、病因解析不足等问题,并展望扩大数据集、融合多模态影像及加强跨领域交叉研究的发展方向,为推动相关AI模型向稳定、可靠的临床辅助诊断工具转化,最终为提升VF的诊疗效率与精准性提供理论借鉴。
[Abstract] Imaging plays a crucial role in the identification and diagnosis of spinal vertebral fractures (VF), and is particularly vital for the clinical formulation of treatment plans. In recent years, with the rapid development of artificial intelligence (AI) technology, it has shown great potential in the image segmentation, detection and diagnosis of VF. However, existing reviews have predominantly focused on isolated tasks like fracture detection or etiological classification, and have not provided a systematic overview of the overall progress and key challenges in the field. Therefore, this article provides a comprehensive review of the application of AI in the imaging of spinal VF, covering technical methods and research status in fracture segmentation, annotation, detection, and diagnosis. It points out current limitations such as restricted datasets, reliance on single-modal imaging, and insufficient etiological analysis. Furthermore, it prospects the development directions of expanding datasets, integrating multi-modal imaging, and strengthening cross-disciplinary research, in order to promote the transformation of related AI models into stable and reliable clinical auxiliary diagnostic tools. Ultimately, it provides theoretical references for improving the diagnosis and treatment efficiency and accuracy of VF.
[关键词] 椎骨骨折;人工智能;深度学习;磁共振成像;体层摄影术
[Keywords] vertebral fractures;artificial intelligence;deep learning;magnetic resonance imaging;computed tomography

张蕾 1   孟令惠 2*  

1 河北医科大学第三医院医学影像科,石家庄 050051

2 河北医科大学第二医院医学影像科,石家庄 050000

通信作者:孟令惠,E-mail:37900418@hebmu.edu.cn

作者贡献声明::孟令惠对本研究的构思有实质性贡献,对稿件重要内容进行了修改,获得中关村精准医学基金会临床科研项目资助;张蕾起草和撰写稿件,进行文献的收集与分析,对稿件重要内容进行了修改;全体作者都同意发表最后的修改稿,同意对本研究的所有方面负责,确保本研究的准确性和诚信。


基金项目: 中关村精准医学基金会临床科研项目
收稿日期:2025-11-30
接受日期:2026-01-28
中图分类号:R445.2  R683.2 
文献标识码:A
DOI: 10.12015/issn.1674-8034.2026.02.029
本文引用格式:张蕾, 孟令惠. 人工智能在椎骨骨折影像学研究中的应用进展[J]. 磁共振成像, 2026, 17(2): 194-199, 206. DOI:10.12015/issn.1674-8034.2026.02.029.

0 引言

       椎骨骨折(vertebral fracture, VF)是全球范围内常见的骨骼疾病,尤其在老年人中更为普遍[1]。随着人口老龄化的加速,脊柱VF的发病率及其造成的社会、经济负担逐年上升[2, 3]。VF可能由多种原因引起,包括创伤、骨质疏松症、原发或继发性骨肿瘤等。根据发病原因的不同,VF可以分为骨质疏松性椎骨骨折(osteoporotic vertebral fracture, OVF)、良性椎骨骨折、病理性椎骨骨折(pathological vertebral fracture, PVF)[4]。需要强调的是,不同病因导致的VF治疗方案存在显著差异。因此,个体化治疗策略的制定需要综合考量骨折损伤形态、创伤生物力学、患者基础疾病及并发症等多方面因素[5]。影像学在VF的识别及诊断中发挥重要作用,能够提供骨折类型、病因确定等方面的丰富信息,为临床治疗提供重要依据。

       在人工智能(artificial intelligence, AI)领域,机器学习(machine learning, ML)和深度学习(deep learning, DL)已经成为医学影像分析的关键技术,展现出显著的应用优势[6]。近年来研究表明[7, 8],上述方法可以自动提取图像特征,并进行训练、验证和测试,为骨折的精准诊断带来了新的可能性。尽管AI在VF的应用中取得了一定进展,但现有综述多聚焦于骨折检测、诊断等单一视角,缺乏系统整合[9, 10]

       因此,本文系统综述AI在VF影像学领域的研究进展,总结其在图像分割、检测与诊断等方面的技术方法与性能,明确当前研究存在的不足与挑战,并展望未来发展方向,以期为该领域未来的深入研究和临床转化应用提供参考,助力脊柱影像诊断性能的提升。

1 AI在VF影像分析中的技术基础与应用潜力

       AI泛指使用计算机在最少人工干预的情况下对智能行为进行建模的方法[11],特别是其子领域的ML和DL,正在深刻变革医学影像的分析模式。ML通过数据驱动的方式学习规律,依赖人工特征提取与筛选,虽具有可解释性强的优点,但存在耗时、易受观察者间差异影响的缺点[12]。DL利用多层神经网络(multilayer neural network, MLNN)从原始数据中自动提取特征,基于大数据集实现高性能的分类任务[13],但模型决策性依赖关键特征,常常需要借助梯度加权类激活映射(gradient-weighted class activation mapping, Grad-CAM)等可视化技术进行解释。

       当前,AI在VF影像分析中的应用主要围绕检测、图像分割和分类三大任务展开。疾病的检测是指定位影像中的研究对象[14],是VF诊断过程中的首要步骤,基于卷积神经网络(convolutional neural network, CNN)的目标检测算法,如YOLO、FasterR-CNN等模型已经成为研究热点,能够快速、自动定位影像中的病灶或解剖结构[15]。图像分割任务通常为特征提取前的准备步骤,U-Net及其变体是当前主流架构,能在像素级别精准勾画目标区域,为后续定量分析奠定基础[16],最新研究热点趋向于结合注意力机制和Transfomer架构,以提升对VF复杂形态和边界的分割精度[17]。影像数据的分类任务是影像学研究中具有挑战性的任务之一,目前DL正在成为这一任务的主要方法,有研究[18]使用X线图像基于预训练的CNN模型,进行颈椎VF与脱位的分类,模型准确度达到了99.56%。

2 AI在VF影像学研究中的进展

2.1 VF的分割与标注

       椎体的精准分割与准确解剖标注是自动分析的基础[19]。由于VF形态的多样性和复杂性,以及患者之间可能不同的扫描视野,使得VF的精准分割和解剖标注极具挑战性。目前,部分研究[20]的骨折椎骨标记与分割工作依赖于医师手动完成,因此,开发能够实现自动分割且保持高准确性的模型,对提升工作效率至关重要。

       针对上述挑战,基于不同影像模态与算法架构开发自动分割模型的研究不断涌现。其中ZHANG等[21]基于DL建立了从脊柱X线图像中自动分割VF的焦点网络(PFNet)模型,并开展了一项大规模的多中心实验,通过验证训练集与外部测试集,PFNet模型的分割准确率>98%,同时为提升临床可解释性,该研究使用定性比较和Grad-CAM技术对模型的特征学习与分割结果进行了可视化分析。然而,由于该研究为回顾性分析,选择偏倚不可避免;此外,该模型稳定性会受到椎体压缩程度、骨密度、图像质量的影响。

       尽管X线图像分割模型已经实现较高准确率,但对于骨折边界、软组织分辨能力有限,计算机断层扫描(computed tomography, CT)拥有更高的图像分辨力,能够更加清晰显示椎骨细节,通过CT图像进行椎骨分割也是研究的热点。有研究提供了关于骨折分级的脊椎分割数据集[22],经过对CT数据预处理,实施预测椎体准确体素级分割的框架,应用U-Net进行训练,为脊柱CT图像提供椎骨分割掩模,并为每个椎骨水平的VF或异常提供了注释,该研究通过大规模ML,实现了自动脊柱处理和骨折检测。PARK等[23]开发并验证一种基于CT图像进行VF分割的自动算法,应用CNN进行训练,以执行VF的自动分割,并在独立测试集上进行验证。实验结果表明,该算法与人工专家分割结果吻合较好,Dice相似系数(dice similarity coefficient, DSC)为94.0%。为提高模型在不同CT图像场景下的适应性,有研究[24]基于CNN构建DL分割框架,该研究以公开数据集作为模型训练基础,借助Anduin工具对胸腰椎(T5-L1)进行自动分割,同时排除存在单独病变的椎体,并由专业放射科医师人工复核所有分割结果。为进一步提升模型性能,REHMAN等[25]提出了一种基于区域的水平集与DL结合的新型框架,并将这种新的框架称为 “FU-Net”, 该框架在无骨折病例的数据集进行评估后DSC为96.4%±0.8%,对存在骨折数据集进行评估后DSC为92.8%±1.9%。

       为解决脊柱CT图像自动分割中数据稀疏、算法性能难以评估的问题,SEKUBOYINA等[26]回顾性收集来自多中心、多设备的CT图像,志愿者覆盖正常、存在VF、存在脊柱金属植入物、包含移行椎的人群,采用自动标注、人工修正的方式给椎体进行定位,采用不同算法经过训练、测试后构建标注与分割模型,最终得出3D补丁式DL为最优算法,但模型评估指标更多关注图像的几何重叠度与边界误差度量,与可靠标注椎体、发现细微或隐匿性骨折等临床核心需求脱节。另一项相关研究[27]通过采用3D全CNN回归高斯热图,提取脊柱边界框,获得局部最大强度投影(maximum intensive projection, MIP)对脊柱进行定位,使用改进的Btrfly Net进行椎骨标注,引入对抗网络进行学习,公共基准数据集和两个内部数据集进行验证,识别率分别为88.5%、85.1%。TIAN等[28]为避免2D模型丢失椎体上下缘、前后径等关键空间特征,选用3D V-Net作为椎体自动分割的核心算法,选取腰椎CT平扫图像,对模型进行训练,但模型训练依赖单中心数据,并排除了存在骨质破坏的数据,在临床适用性可能会被高估。

       当前,基于磁共振成像(magnetic resonance imaging, MRI)脊柱图像开展椎骨自动分割与标注的研究相对较少。MOHANTY等[29]利用来源于Mendeley数据集的脊柱MRI图像,采用多个掩膜区域CNN将脊柱MRI图像分割为颈椎、胸椎、腰椎、骶椎、尾椎5个区域,结合基于排序区域积分的解释方法,进行区域显著性提取与像素级分割,结果显示该模型下的平均峰值信噪比(peak signal-to-noise ratio, PSNR)为47.62 dB,与现有分割模型,如CNN、深度神经网络(deep neural network, DNN)、统计参数映射(statistical parametric mapping, SPM),进行对比,PSNR提升3.4~14.6 dB。

       椎骨精准分割与准确标注是实现VF检测的前提,上述研究[22, 28]通过U-Net变体、3D网络、引入注意力机制等,显著提升了椎骨分割的精准度,显示出较高的技术可行性与临床应用潜力。但是,目前多数研究基于单中心、单模态的数据,模型适用性无法得到验证。此外,现有分割模型对于存在严重压缩、严重骨质破坏或存在植入物的椎骨处理能力不足。因此,未来研究应该着重构建多中心、多设备的大规模高质量标注数据集,研究可以覆盖任意椎骨形态的算法模型,以促进AI在脊柱影像分析中的系统化与临床应用。

2.2 VF的检测

       VF的检测是医学领域中的一个重要研究方向。实现VF的及时准确检测,对于指导临床早期干预、制订个体化治疗方案、改善预后具有重要意义。

       近年来,许多研究者致力于开发计算机辅助诊断系统,以提高骨折检测的准确性和效率。LI等[30]通过对941例患者的1101例存在胸7~腰5骨折的X线平片进行回顾性评估,经脊柱外科医生和放射科医生达成共识诊断后,对这些影像进行标注,进而用于DL模型的训练、验证与测试,结果表明模型在平片上检测VF具有很高的准确率(93%),特别是对于腰椎OVF,敏感度达到97%。CHEN等[31]以MRI为标准建立应用于数字影像(digital radiography, DR)识别新鲜VF的DL模型,该研究创新性地将骨边缘特征嵌入基础模型输入,增强了模型对骨边缘的关注,此外融合中心损失与马赛克数据增强,提升模型对DR图像固有特征的提取能力,评估了模型在不同视图下的检测性能,结果显示侧位视图检测性能优于正位视图,两者结合视图检测性能最优,但该研究对象仅局限于单中心、腰椎椎体,模型适用性尚不明确。

       基于CT图像进行模型设计是实现自动识别VF的研究热点。LIAWRUNGRUEANG等[32]利用DL人工神经网络(artificial neural network, ANN)实现OVF的自动检测,从公开数据集获得胸腰椎、腰椎CT矢状位图像,选用YOLOv8作为基础架构进行学习,在该内部数据集中进行测试,模型整体准确率达到96.04%,为临床提供了快速的辅助诊断工具,但模型未经过多中心验证,适用性尚不明确。

       颈椎周围结构复杂,且具有重要的生理功能,在脊柱骨折的检测中是尤为重要的[33],SINGH等[34]采用北美放射学会(Radiological Society of America, RSNA)公开可用的颈椎骨折注释数据集进行实验,图像进行预处理后,利用多个预先训练过的CNN模型进行特征提取,将最佳性能与U-net结合,对颈椎VF进行了识别与多标签分类,引入ResNet-v2构建混合体系的学习模型,增强特征提取能力,通过Grad-CAM可视化技术提供可解释性,最终混合体系模型颈椎骨折检出准确率为98.4%,放射科医师为95.0%。基于CT图像的AI模型在VF的检测中比基于X线图像的AI模型拥有更好的性能,这得益于CT图像更高的分辨力。

       MRI被认为是VF诊断的金标准,ER等[35]收集存在VF的T1加权成像(T1-Weighted imaging, T1WI)、T2加权成像(T2-Weighted imaging, T2WI)图像,经过图像标准化、数据增强等处理后,基于YOLOv8deDL模型进行病变的检测与分类,在该内部数据集上,YOLOv8模型对T1WI、T2WI图像的检测准确率分别为84.0%、85.0%,且在T2WI数据集中针对急性压缩性骨折的准确率达到93.0%,可以成功区分急性压缩性骨折,并提示是否存在PVF,但研究存在单一中心数据来源、未与放射科医生诊断性能比较等缺陷。WINDSOR等[36]采用多个中心数据集,数据覆盖全脊柱MRI扫描,通过角点-质心矢量场分组机制解决传统方法较难处理椎体旋转、尺寸不匹配问题,通过补全策略适配椎体塌陷等病理情况,应用2D ResNet18将脊柱MRI矢状面图像进行特征提取,Transformer编码器融合多序列/椎体上下文信息,输出分级/检测信息,经过性能评估,结果显示椎体检测准确率达到99.0%~99.7%。

       AI对于VF检测方面的研究覆盖X线、CT及MRI图像,模型准确性较高,证实AI存在作为临床辅助工具减轻医师工作负荷、提升诊断一致性的潜力。然而,现有研究设计多为回顾性,存在潜在选择偏倚。此外,模型对于隐匿性骨折、轻微骨折等检测效能,需要进一步验证。最后,模型输出多为区分有无骨折的二分类,与临床需要的精准诊断存在差距。因此,开展前瞻性临床应用试验,评估模型对实际临床诊断的效能,逐步从单纯的骨折识别,推进至对骨折成因的深入分析,是未来的研究方向。

2.3 VF的诊断

       在中、青年人群中,创伤导致的VF是首要发病原因[1],小部分原因为原发性骨肿瘤。在老年人群中,OVF更容易发生在绝经后女性群体[37]。目前由于肿瘤姑息治疗方法的改进,脊柱转移瘤的发生率上升了20%[38],这可能导致PVF的病例增多。由于VF发病原因多样,影像特征各不相同,这说明需要全面评估每一个可用的成像特征,以确保正确地诊断。VF诊断是骨科学中的重要研究领域,例如鉴别骨折的性质(如良性或病理性),对于治疗策略和预后至关重要。而影像学在该领域中发挥重要作用,随着医学影像技术和AI技术的快速发展,该领域取得了显著进展。

2.3.1 基于X线图像的AI在VF诊断中的应用

       凭借检查费用低、具有较高的普及性、操作简便快捷等优势,X线依然在VF的筛查中占据着主要位置,因此多数研究人员希望应用AI技术挖掘X线在VF诊断中的潜能。

       CHEN等[31]回顾性收集腰椎X线片、腰椎MRI图像,在腰椎X线片对骨折区域进行人工勾画,以腰椎MRI结果作为金标准,将骨折分为“新鲜”与 “陈旧”,同时记录骨折等级和类型,使用ResNeSt-50作为主干网络,结合注意力机制和骨边缘特征增强,将数据进行五折交叉验证,结果显示模型整体性能尚可,在识别新鲜VF方面表现良好,准确性为74.0%,受试者工作特征曲线下面积(area under the curve, AUC)为0.80,进一步对不同等级和类型进行亚组分析后,发现3级骨折(AUC=0.89)、粉碎性骨折(AUC=0.87)识别性能最佳。有研究[39]收集来自两个中心的脊柱X线侧位片数据,以EfficientNet-B4的DL模型为基础框架,分别开发了用于检测VF的VERTE-X pVF模型以及用于检测骨质疏松的VERTE-X osteo模型,结果显示模型能够显著识别VF,并发现发生VF的高风险人群,进一步提升高风险个体进行双能X线吸收法(dual-energy X-ray absorptiometry, DXA)检查的准确率,该研究中的数据集涵盖多个品牌的X线机器,测试时模型运行稳定,同时用Grad-CAM可视化技术提供研究可解释性,提升了临床信任度,但该研究数据来源于50岁以上人群,存在年龄选择偏倚。

2.3.2 基于CT图像的AI在VF诊断中的应用

       在临床实践中,CT具有良好的空间分辨力,是VF评估的重要手段。因此,研究人员尝试挖掘AI技术结合CT图像在VF精准诊断中的潜力。

       FOREMAN等[40]使用三维U-Net编码器-分类器架构模型,采用双训练策略辅助模型识别恶性病变的共性特征,分别验证内部测试集与外部测试集,并与放射科住院医师、放射科研究员的诊断能力进行比较,该研究结果表明模型在内部测试集的AUC为0.85,外部测试集的AUC为0.75,模型诊断性能超过放射科住院医师水平,与高年资放射科研究员诊断水平相当。此外,模型有效减少了因骨折后形态改变掩盖病变恶性特征而造成的误判情况。刘珂等[41]根据VF的CT扫描中诸如椎体压缩程度、骨折线形态、软组织肿块等影像学特征进行临床诊断及良恶性鉴别,并基于ResNet50的DL模型通过多通道输入覆盖病变的空间连续性特征,借助残差连接避免深层网络训练中梯度消失的问题,实现多尺度特征的融合,结果表明模型诊断准确率、敏感度、特异度与放射科医师相近,但该项研究受到病理类型的潜在选择偏倚限制。有研究[42]基于腹部增强CT图像分别构建放射组学ML与DL CNN模型,用于区分病变的良性与恶性,前者通过特征提取、关键特征筛选、模型训练,解决“手工特征与模型适配性”的问题,后者采用轻量化3D ResNet-18架构自主学习椎体空间结果模式,解决“手工特征遗漏关键信息”的问题,结果发现DL模型在总体诊断性能上有显著的优势,ML模型在提供与肿瘤异质性相关特征上存在优势,但ML模型相较于DL模型缺乏空间可解释性,将这两种方法结合起来可以提高基于腹部CT的VF良恶性的诊断准确性。

2.3.3 基于MRI图像的AI在VF诊断中的应用

       MRI有多种不同的成像序列及良好的组织分辨力,可以提供更丰富的影像信息,近年来借助AI强大计算能力,基于MRI图像实现精准诊断成为研究热点。

       因此,有研究[43]回顾性收集来自多中心经病理证实的脊柱骨病变案例,由放射科医师手工勾画病变感兴趣区(region of interest, ROI),提取2.5D关键切片,EfficientNet-B0 架构分别基于MRI T1WI、T2WI图像训练模型,与临床模型融合,构建联合诊断模型对收集的病例进行分类,通过多指标评估模型与放射科医生分类结果,结果显示,基于EfficientNet和临床模型的集成DL模型,内部测试集分类准确率达到76.0%,外部测试集分类准确率达到73.0%,但数据集中部分病理结果罕见,暂时无法验证模型对罕见病的分类能力。ZHANG等[44]从脊柱MRI矢状位T2加权脂肪抑制序列(T2-weighted imaging with fat saturation, T2WI-FS)影像提取3D高维度放射组学特征,基于7种不同的分类器建立预测模型,通过内部验证与外部测试进行最优模型筛选,研究发现高斯朴素贝叶斯(GNB)模型比验证队列中的其他分类器获得了更高的AUC和准确度(0.86,87.6%),虽然该模型可针对性解决VF良恶性鉴别难题,但较低的组学特征重复性影响到了模型的临床应用。此外,还有研究[45]以MRI矢状位T2WI Dixon图像为基础,利用传统放射组学技术提取放射组学特征,选取VF的最大显示层面和相邻的矢状面切片、应用ResNet 50模型建立2.5维(2.5D)DL模型,通过特征融合构建深度学习放射组学(deep learning radiomics, DLR)模型。经过特征融合及多分类器对比,筛选最优模型,结果发现基于Rad技术的模型AUC值0.801,深度学习模型AUC值0.805,DLR模型AUC值为0.971,DLR模型表现最佳。

       对于VF的MRI,T1WI、T2WI/T2WI FS都携带者重要的影像信息,联合应用可以提高诊断效率。LIU等[46]开发了一种基于DL的双流对比网络(two-stream compare and contrast network,TSCCN)用于VF的检测和分类,研究采用脊柱MRI正中矢状位T1WI、T2WI-FS,以及两者的组合图像对TSCCN模型进行训练、验证,并与放射科医师评估结果进行比较,发现基于TSCCN模型的T1WI、T2WI、组合图像的诊断准确性和特异度优于放射科医生的评估结果,敏感性没有显著差异。其中基于TSCCN模型的T1WI图像擅长显示骨髓脂肪信号,纹理特征鉴别价值高,T2WI-FS图像对软组织水肿敏感,组合图像结合两种序列的互补信息,可以减少假阳性,未来可以应用包括正中矢状位在内的更多影像,获得更优结果。GENG等[47]回顾性收集确诊VF的患者MRI影像资料与临床资料,包括T1WI、T2WI、T2WI FS,利用ITK-SNAP手动勾画ROI(骨折椎体),应用Python从ROI中提取影像组学特征,经过筛选得到12个最有鉴别价值的特征,构建影像组学模型与联合模型,该研究涵盖脊柱不同节段、MRI不同序列,鉴别能力更优。

2.3.4 基于多模态数据的AI在VF诊断中的应用

       多模态数据不只局限于不同的医学图像,也包括图像和文本的整合[48],这可以弥补单模态的信息缺陷,增强模型应对复杂环境的适应力。目前,绝大多数已经发表的研究成果侧重于单一模态的AI应用,SCHOUTEN等[49]指出基于多模态AI的模型经过验证,可以更加有效地处理不同模态的数据、利用不同模态数据的互补性,结合患者的临床资料做出最准确的预测。有研究[50]开发了一种新的评分系统,该系统整合了多种MRI和CT标志,筛选出兼具临床意义与鉴别价值的征象,采用逐步判别分析自动筛选最优鉴别组合并量化权重,构建客观评分模型,对模型性能进行验证后,将模型的判别分析结果简化形成整数评分系统,以提高PVF与OVF之间的鉴别诊断准确性,该评分系统的敏感度和特异度都很高,分类准确率达到了98.3%。另外一项研究[51]应用EfficientNet网络构建了基于不完整多模态医学图像、基于不完整多模态医学图像联合临床资料的两种DL模型,用于原发性骨肿瘤的分类,研究结果显示基于不完整多模态医学图像联合临床资料的DL模型具有更好的分类能力,但研究样本分布部位有限,缺乏对临床少见部位肿瘤的指导意义,模型可解释性差影响了临床应用。ZHENG等[52]回顾性收集绝经后OVF、接受经皮椎体成型术的患者术前CT、MRI影像资料与临床资料,经过两位脊柱外科医生手动勾画ROI,使用Pyradiomics工具从ROI中提取影像组学特征,再经过特征筛选、LASSO回归最终选择21个组学特征,使用7种ML算法构建临床预测模型、影像组学预测模型、联合预测模型,结果显示联合预测模型AUC达到0.866,显著优于另外两个模型,但研究存在样本量小、部分模型存在过拟合问题。

       AI在VF的诊断,尤其是在良恶性鉴别方面取得显著进展,无论是单模态影像研究,或是初步“DL+影像组学”“影像+临床”多模态融合研究结果。尽管如此,该领域依然面临严峻挑战。首先是临床可解释性与实用性的落差,模型难以与具体的病理生理改变建立关联,阻碍了临床医生对模型决策的信任与采纳。其次,多数研究人停留在模型诊断与人工诊断的对比,未系统评估AI在真实临床诊疗流程中的实际增效作用。因此,未来深入探索多模态协同,有效融合图像及临床信息,构建诊断框架,发展能将模型判断依据锚定具体征象的解释技术,增加结果可信性是研究重点。

3 小结与展望

       影像学研究的核心在于图像信息的提取,这一技术路径与AI领域的应用探索高度适配。近年来,计算性能与数据处理能力的持续提升,进一步推动了AI技术的发展。ML算法的特征提取过程依赖人工设计与筛选,例如放射组学中的形态学特征、纹理特征等,但其存在特征维度受限、易遗漏潜在关键信息、仅适用于小样本数据场景等局限性。DL能够从原始数据中完成体征的自动学习与提取,并可通过卷积层提取图像边缘、纹理、语义特征[22, 23],进而获取高维度的深层特征,不过这类算法通常需要大量数据和相应的元数据来保证模型的正确训练。目前,以CNN为代表的DL技术,已成功应用于脊柱分割、检测、分类任务[1, 44]

       在VF相关AI研究中,目前存在以下问题:(1)现有小型公共CT数据集多聚焦于胸椎、腰椎椎体的分割任务,并未包括颈椎相关数据[6],相关研究也多集中在胸腰椎。(2)用于检测VF的AI模型需要标准化的成像模式,足够的、多样的数据量,目前多数研究运用DL基于单一模态的影像进行图像分析。(3)多数研究运用DL对VF仅进行了简单分类,如区分OVF与PVF,并未对病因进一步解释分析。

       综上所述,基于AI的VF研究可以在如下方向进一步深入:(1)扩大数据集覆盖范围,将颈椎VF纳入研究范畴。(2)多中心合作、数据共享可以提高模型稳定性[53],结合多模态医学影像数据,如MRI、CT、X线,以获得更全面的骨折信息,进一步优化完善DL模型。(3)加强与其他领域的交叉研究,如生物信息学和放射学,助力生物标志物的挖掘和病因解析。

[1]
BAE Y, KIM M, JEONG W, et al. Epidemiology and future burden of vertebral fractures: insights from the global burden of disease 1990-2021[J/OL]. Healthcare, 2025, 13(15): 1774 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/40805807/. DOI: 10.3390/healthcare13151774.
[2]
LIN S J, CAI X X, CHENG Q, et al. Association between bone turnover markers, BMD and height loss of cemented vertebrae after percutaneous vertebroplasty in patients with osteoporotic vertebral compression fractures[J/OL]. J Orthop Surg Res, 2022, 17(1): 202 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/35379274/. DOI: 10.1186/s13018-022-03087-4.
[3]
DONG Y M, PENG R P, KANG H L, et al. Global incidence, prevalence, and disability of vertebral fractures: a systematic analysis of the global burden of disease study 2019[J]. Spine J, 2022, 22(5): 857-868. DOI: 10.1016/j.spinee.2021.12.007.
[4]
ENACHE A V, TOADER C, ONCIUL R, et al. Surgical stabilization of the spine: a clinical review of spinal fractures, spondylolisthesis, and instrumentation methods[J/OL]. J Clin Med, 2025, 14(4): 1124 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/40004655/. DOI: 10.3390/jcm14041124.
[5]
LEITE G S L, DE OLIVEIRA D O, DE SOUSA PONTES M D, et al. Early vs. late surgery in thoracic spine fractures: impact on clinical outcomes in polytrauma patients[J/OL]. Eur J Trauma Emerg Surg, 2025, 51(1): 334 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/41239017/. DOI: 10.1007/s00068-025-03003-5.
[6]
CASTIGLIONI I, RUNDO L, CODARI M, et al. AI applications to medical images: From machine learning to deep learning[J/OL]. Phys Med, 2021, 83: 9-24 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/33662856/. DOI: 10.1016/j.ejmp.2021.02.006.
[7]
LV Q, ZHANG S Z, WANG Y C. Deep learning model of image classification using machine learning[J/OL]. Adv Multimed, 2022, 2022: 3351256 [2025-11-12]. https://onlinelibrary.wiley.com/doi/10.1155/2022/3351256. DOI: 10.1155/2022/3351256.
[8]
LIAO J, GUO L P, JIANG L, et al. A machine learning-based feature extraction method for image classification using ResNet architecture[J/OL]. Digit Signal Process, 2025, 160: 105036 [2025-11-12]. https://www.sciencedirect.com/science/article/abs/pii/S1051200425000582via%3Dihub. DOI: 10.1016/j.dsp.2025.105036.
[9]
KUTBI M. Artificial intelligence-based applications for bone fracture detection using medical images: a systematic review[J/OL]. Diagnostics, 2024, 14(17): 1879 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/39272664/. DOI: 10.3390/diagnostics14171879.
[10]
MAKI S, FURUYA T, INOUE M, et al. Machine learning and deep learning in spinal injury: a narrative review of algorithms in diagnosis and prognosis[J/OL]. J Clin Med, 2024, 13(3): 705 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/38337399/. DOI: 10.3390/jcm13030705.
[11]
HOLMES J H, SACCHI L, BELLAZZI R, et al. Artificial intelligence in medicine AIME 2015[J/OL]. Artif Intell Med, 2017, 81: 1-2 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/28733119/. DOI: 10.1016/j.artmed.2017.06.011.
[12]
MA J C, YANG H, CHOU Y, et al. Generalizability of lesion detection and segmentation when ScaleNAS is trained on a large multi-organ dataset and validated in the liver[J]. Med Phys, 2025, 52(2): 1005-1018. DOI: 10.1002/mp.17504.
[13]
XIA T Y, ZHAO B, LI B R, et al. MRI-based radiomics and deep learning in biological characteristics and prognosis of hepatocellular carcinoma: opportunities and challenges[J]. J Magn Reson Imaging, 2024, 59(3): 767-783. DOI: 10.1002/jmri.28982.
[14]
GAO Y X, JIANG Y, PENG Y H, et al. Medical image segmentation: a comprehensive review of deep learning-based methods[J/OL]. Tomography, 2025, 11(5): 52 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/40423254/. DOI: 10.3390/tomography11050052.
[15]
REN J S, WANG Y. Overview of object detection algorithms using convolutional neural networks[J]. J Comput Commun, 2022, 10(1): 115-132. DOI: 10.4236/jcc.2022.101006
[16]
WANG J T, RUHAIYEM N I R, FU P P. A comprehensive review of U-Net and its variants: advances and applications in medical image segmentation[J/OL]. IET Image Process, 2025, 19(1): e70019 [2025-11-12]. https://ietresearch.onlinelibrary.wiley.com/doi/10.1049/ipr2.70019. DOI: 10.1049/ipr2.70019.
[17]
ZHANG H M, SBOEV A, RYBKA R, et al. Combining aggregated attention and transformer architecture for accurate and efficient performance of Spiking Neural Networks[J/OL]. Neural Netw, 2025, 191: 107789 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/40633294/. DOI: 10.1016/j.neunet.2025.107789.
[18]
NAGUIB S M, HAMZA H M, HOSNY K M, et al. Classification of cervical spine fracture and dislocation using refined pre-trained deep model and saliency map[J/OL]. Diagnostics, 2023, 13(7): 1273 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/37046491/. DOI: 10.3390/diagnostics13071273.
[19]
CHEN Y, MO Y H, READIE A, et al. VertXNet: an ensemble method for vertebral body segmentation and identification from cervical and lumbar spinal X-rays[J/OL]. Sci Rep, 2024, 14(1): 3341 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/38336974/. DOI: 10.1038/s41598-023-49923-3.
[20]
KIM Y R, YOON Y S, CHA J G. Opportunistic screening for acute vertebral fractures on a routine abdominal or chest computed tomography scans using an automated deep learning model[J/OL]. Diagnostics, 2024, 14(7): 781 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/38611694/. DOI: 10.3390/diagnostics14070781.
[21]
ZHANG H, YUAN G J, ZHANG Z Y, et al. A multi-scene deep learning model for automated segmentation of acute vertebral compression fractures from radiographs: a multicenter cohort study[J/OL]. Insights Imaging, 2024, 15(1): 290 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/39621135/. DOI: 10.1186/s13244-024-01861-y.
[22]
LÖFFLER M T, SEKUBOYINA A, JACOB A, et al. A vertebral segmentation dataset with fracture grading[J/OL]. Radiol Artif Intell, 2020, 2(4): e190138 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/33937831/. DOI: 10.1148/ryai.2020190138.
[23]
PARK T, YOON M A, CHO Y C, et al. Automated segmentation of the fractured vertebrae on CT and its applicability in a radiomics model to predict fracture malignancy[J/OL]. Sci Rep, 2022, 12(1): 6735 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/35468985/. DOI: 10.1038/s41598-022-10807-7.
[24]
BODDEN J, DIECKMEYER M, SOLLMANN N, et al. Incidental vertebral fracture prediction using neuronal network-based automatic spine segmentation and volumetric bone mineral density extraction from routine clinical CT scans[J/OL]. Front Endocrinol, 2023, 14: 1207949 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/37529605/. DOI: 10.3389/fendo.2023.1207949.
[25]
REHMAN F, SHAH S I ALI, RIAZ M N, et al. A region-based deep level set formulation for vertebral bone segmentation of osteoporotic fractures[J]. J Digit Imag, 2020, 33(1): 191-203. DOI: 10.1007/s10278-019-00216-0.
[26]
SEKUBOYINA A, HUSSEINI M E, BAYAT A, et al. VerSe: a Vertebrae labelling and segmentation benchmark for multi-detector CT images[J/OL]. Med Image Anal, 2021, 73: 102166 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/34340104/. DOI: 10.1016/j.media.2021.102166.
[27]
SEKUBOYINA A, REMPFLER M, VALENTINITSCH A, et al. Labeling vertebrae with two-dimensional reformations of multidetector CT images: an adversarial approach for incorporating prior knowledge of spine anatomy[J/OL]. Radiol Artif Intell, 2020, 2(2): e190074 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/33937818/. DOI: 10.1148/ryai.2020190074.
[28]
TIAN J Y, WANG K X, WU P S, et al. Development of a deep learning model for detecting lumbar vertebral fractures on CT images: an external validation[J/OL]. Eur J Radiol, 2024, 180: 111685 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/39197270/. DOI: 10.1016/j.ejrad.2024.111685.
[29]
MOHANTY R, ALLABUN S, SOLANKI S S, et al. NAMSTCD: a novel augmented model for spinal cord segmentation and tumor classification using deep nets[J/OL]. Diagnostics, 2023, 13(8): 1417 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/37189520/. DOI: 10.3390/diagnostics13081417.
[30]
LI Y C, CHEN H H, HORNG-SHING LU H, et al. Can a deep-learning model for the automated detection of vertebral fractures approach the performance level of human subspecialists [J]. Clin Orthop Relat Res, 2021, 479(7): 1598-1612. DOI: 10.1097/CORR.0000000000001685.
[31]
CHEN W J, LIU X, LI K H, et al. A deep-learning model for identifying fresh vertebral compression fractures on digital radiography[J]. Eur Radiol, 2022, 32(3): 1496-1505. DOI: 10.1007/s00330-021-08247-4.
[32]
LIAWRUNGRUEANG W, CHO S T, KOTHEERANURAK V, et al. Osteoporotic vertebral compression fracture (OVCF) detection using artificial neural networks model based on the AO spine-DGOU osteoporotic fracture classification system[J/OL]. N Am Spine Soc J, 2024, 19: 100515 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/39188670/. DOI: 10.1016/j.xnsj.2024.100515.
[33]
OKEREKE I, MMEREM K, BALASUBRAMANIAN D. The management of cervical spine injuries-a literature review[J/OL]. Orthop Res Rev, 2021, 13: 151-162 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/34611449/. DOI: 10.2147/ORR.S324622.
[34]
SINGH M, TRIPATHI U, PATEL K K, et al. An efficient deep learning based approach for automated identification of cervical vertebrae fracture as a clinical support aid[J/OL]. Sci Rep, 2025, 15: 25651 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/40665115/. DOI: 10.1038/s41598-025-10448-6.
[35]
ER H, TÖREN M, ASAN B, et al. Deep learning-based differentiation of vertebral body lesions on magnetic resonance imaging[J/OL]. Diagnostics, 2025, 15(15): 1862 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/40804827/. DOI: 10.3390/diagnostics15151862.
[36]
WINDSOR R, JAMALUDIN A, KADIR T, et al. Automated detection, labelling and radiological grading of clinical spinal MRIs[J/OL]. Sci Rep, 2024, 14(1): 14993 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/38951574/. DOI: 10.1038/s41598-024-64580-w.
[37]
GOMEZ-VAQUERO C, MORA M, GONZÁLEZ-GIMÉNEZ X, et al. Improving fracture risk classification in Spain: a 10-year evaluation of a modified FRAX-based algorithm[J/OL]. Reumatol Clin, 2025, 21(8): 501950 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/41047196/. DOI: 10.1016/j.reumae.2025.501950.
[38]
VAN TOL F R, VERSTEEG A L, VERKOOIJEN H M, et al. Time to surgical treatment for metastatic spinal disease: identification of delay intervals[J]. Glob Spine J, 2023, 13(2): 316-323. DOI: 10.1177/2192568221994787.
[39]
HONG N, CHO S W, SHIN S, et al. Deep-learning-based detection of vertebral fracture and osteoporosis using lateral spine X-ray radiography[J]. J Bone Miner Res, 2023, 38(6): 887-895. DOI: 10.1002/jbmr.4814.
[40]
FOREMAN S C, SCHINZ D, EL HUSSEINI M, et al. Deep learning to differentiate benign and malignant vertebral fractures at multidetector CT[J/OL]. Radiology, 2024, 310(3): e231429 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/38530172/. DOI: 10.1148/radiol.231429.
[41]
刘珂, 王奇政, 陈永晔, 等. 基于ResNet50深度学习模型鉴别脊柱良恶性骨折[J]. 临床放射学杂志, 2021, 40(12): 2350-2355. DOI: 10.13437/j.cnki.jcr.2021.12.021.
LIU K, WANG Q Z, CHEN Y Y, et al. Identification of benign and malignant spinal fractures based on the ResNet50 deep learning model[J]. J Clin Radiol, 2021, 40(12): 2350-2355. DOI: 10.13437/j.cnki.jcr.2021.12.021.
[42]
YEOM J C, PARK S H, KIM Y J, et al. Performance comparison of machine learning using radiomic features and CNN-based deep learning in benign and malignant classification of vertebral compression fractures using CT scans[J/OL]. J Imaging Inform Med, 2025 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/40456998/. DOI: 10.1007/s10278-025-01553-z.
[43]
EWEJE F R, BAO B T, WU J, et al. Deep learning for classification of bone lesions on routine MRI[J/OL]. EBioMedicine, 2021, 68: 103402 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/34098339/. DOI: 10.1016/j.ebiom.2021.103402.
[44]
ZHANG H, YUAN G J, WANG C, et al. Differentiation of benign versus malignant indistinguishable vertebral compression fractures by different machine learning with MRI-based radiomic features[J]. Eur Radiol, 2023, 33(7): 5069-5076. DOI: 10.1007/s00330-023-09678-x.
[45]
LIANG W H, YU H, DUAN L S, et al. MRI-based 2.5D deep learning radiomics nomogram for the differentiation of benign versus malignant vertebral compression fractures[J/OL]. Front Oncol, 2025, 15: 1603672 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/40438697/. DOI: 10.3389/fonc.2025.1603672.
[46]
LIU B B, JIN Y C, FENG S X, et al. Benign vs malignant vertebral compression fractures with MRI: a comparison between automatic deep learning network and radiologist's assessment[J]. Eur Radiol, 2023, 33(7): 5060-5068. DOI: 10.1007/s00330-023-09713-x.
[47]
GENG W, ZHU J F, LI M, et al. Radiomics Based on Multimodal magnetic resonance imaging for the Differential Diagnosis of Benign and Malignant Vertebral Compression Fractures[J]. Orthop Surg, 2024, 16(10): 2464-2474. DOI: 10.1111/os.14148.
[48]
SUN Z Y, LIN M Q, ZHU Q Q, et al. A scoping review on multimodal deep learning in biomedical images and texts[J/OL]. J Biomed Inform, 2023, 146: 104482 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/37652343/. DOI: 10.1016/j.jbi.2023.104482.
[49]
SCHOUTEN D, NICOLETTI G, DILLE B, et al. Navigating the landscape of multimodal AI in medicine: a scoping review on technical challenges and clinical applications[J/OL]. Med Image Anal, 2025, 105: 103621 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/40482561/. DOI: 10.1016/j.media.2025.103621.
[50]
LI Z, GUAN M, SUN D, et al. A novel MRI- and CT-based scoring system to differentiate malignant from osteoporotic vertebral fractures in Chinese patients[J/OL]. BMC Musculoskelet Disord, 2018, 19(1): 406 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/30458738/. DOI: 10.1186/s12891-018-2331-0.
[51]
赵祥成, 宋丽文, 李传璞, 等. 基于不完整多模态医学图像的深度学习模型在原发性骨肿瘤分类中的应用[J]. 临床放射学杂志, 2025, 44(8): 1521-1528. DOI: 10.13437/j.cnki.jcr.2025.08.034.
ZHAO X C, SONG L W, LI C P, et al. Application of deep learning model based on incomplete multimodal medical images in classifying primary bone tumors[J]. J Clin Radiol, 2025, 44(8): 1521-1528. DOI: 10.13437/j.cnki.jcr.2025.08.034.
[52]
ZHENG B, YU P F, ZHU Z Q, et al. Machine learning integration of multi-modal radiomics and clinical factors predicts refracture risk after percutaneous kyphoplasty in postmenopausal women[J/OL]. Sci Rep, 2025, 15(1): 38016 [2025-11-12]. https://pubmed.ncbi.nlm.nih.gov/41168252/. DOI: 10.1038/s41598-025-21894-7.
[53]
HONG N, WHITTIER D E, GLÜER C C, et al. The potential role for artificial intelligence in fracture risk prediction[J]. Lancet Diabetes Endocrinol, 2024, 12(8): 596-600. DOI: 10.1016/S2213-8587(24)00153-0.

上一篇 MRI定量磁敏感成像在脊柱疾病中的研究进展
下一篇 MRI影像特征对四肢血源性骨髓炎与骨恶性肿瘤鉴别诊断价值的研究进展
  
诚聘英才 | 广告合作 | 免责声明 | 版权声明
联系电话:010-67113815
京ICP备19028836号-2