摘要
在结直肠癌的早期筛查中,通过对结肠镜图像进行自动化的息肉检测和分割可以提高诊断效率和准确性。由于肠道内部环境的复杂性以及图像质量的限制,自动化的息肉分割仍然是一个具有挑战性的问题。针对这一问题,提出了一种基于Transformer和空洞卷积特征融合的息肉分割双解码模型(Dual decoded polyp segmentation model fusing Transformer and dilated convolution, FTDC⁃Net)。该模型以ResNet50作为编码器,以便能够更好地提取图像深层次特征。使用 Transformer 编码模块,它的自注意力(Self⁃attention)机制能够捕捉输入之间的长距离依赖关系,模型中使用了不同的空洞卷积(Dilated⁃convolution)来扩大模型的感受野,让模型能捕捉到结肠镜图像更大范围内的信息。本文网络模型的解码部分使用双解码结构,包含一个自动编码器分支,自动编码器可以重构输入,另一个编码分支用于分割结果。模型中,自动编码器的输出被用于生成一个注意力图作为注意力机制,该图将被用于指导分割结果。在Kvasir⁃SEG和ETIS⁃LARIBPOLYPDB标准数据集上进行了实验验证,实验结果表明FTDC⁃Net能有效地分割出结肠息肉,相比目前主流息肉分割模型,在各项评价指标上均取得了较高的提升。
在癌症早期预防的诸多领域中,结肠息肉的检测和分割显得尤为关键,因为结肠息肉是结直肠癌的重要前驱病变,及时发现和切除息肉可以显著降低患者结直肠癌的风
传统的息肉分割方法主要是通过手动提取图像特征进行操
近年来,随着深度学习的快速发展,尤其是卷积神经网络(Convolutional neural networks,CNN
Ronneberger等的研
在医学图像中,息肉可能具有不同的尺寸和形状,从微小的息肉到较大的息肉都可能存在。上述U⁃Net及其变体模型在处理不同尺寸和形状的息肉时存在几个问题。首先,由于其编码⁃解码结构采用固定尺寸的卷积和池化操作,可能导致分辨率不足的情况,特别是对于较小的息肉,模型的感受野有限,很容易忽略细小的细节信息,从而影响分割准确性。其次,编码器和解码器部分使用相同尺寸的卷积核,感受野固定,导致模型对不同尺寸的息肉处理不够灵活,难以适应不同尺度下的息肉。此外,它们模型中的卷积操作主要关注局部特征的提取,对于不同尺寸和形状的息肉的全局关联性理解能力较弱。这可能导致模型在分割过程中无法准确捕捉息肉与周围组织的边界和内部细节。最后,在特征提取和融合过程中缺乏适应性,无法根据不同尺寸的息肉自动调整特征的权重和重要性。这导致模型对不同尺寸的息肉处理效果不一致,难以实现精准的分割。因此,如何设计网络模型以提取更强大的多尺度上下文信息,尤其是在处理复杂的息肉分割任务时,仍然是图像分割研究领域的一大挑战。
针对以上问题,本文设计了一种深度网络模型FTDC⁃Net(Dual decoded polyp segmentation model fusing Transformer and dilated convolution),以ResNet50提取特征并引入Transformer编码器用于特征融合以充分利用编码器提取多尺度特征信息,采用多尺度的空洞卷积(Dilated⁃convolution)增加感受野,使模型能够更好地处理不同尺寸和形状的息肉,并结合自编码器和注意力机制进行特征融合和选择。本文模型不仅可以获取全局和局部的上下文信息,而且可以对特征进行有效的选择和重构,从而提高了分割的精度和稳定性。
本文所提出的FTDC⁃Net模型总体架构如

图1 FTDC-Net框架
Fig.1 FTDC-Net framework
在跨尺度融合部分,本文将从ResNet50得到的最深层特征经过一个瓶颈(Bottleneck)层模块和一个空洞卷积(Dilated⁃convolution)模块处理,瓶颈层提取的是高级语义特征,帮助模型理解图像中的抽象模式和对象,空洞卷积模块接收来自ResNet50的具有较大感受野的特征,在更大的感受野范围内捕获上下文信息,有助于理解图像中的全局结构,然后将这两部分的输出进行拼接。这一操作不仅融合了两种不同类型的特征,还提高了特征的复杂性和丰富性,这两者的结合有助于模型更好地理解图像的语义和结构信息。此后,这一融合特征被送入两个解码器中完成输入图像的分割和重构。
在解码部分,本文设计了两个解码器,一个用于自编码任务,另一个用于分割任务。在自编码任务中,自编码器分支通过1×1卷积和Sigmoid激活函数生成注意力图,这些注意力图与分割解码器块的输出相乘作为下一个分割解码器块的输入,自编码器最终输出输入图像重建的灰度图。在分割解码器中,使用4个解码模块(Decoder block)逐渐上采样并恢复图像的大小。在每一步,都利用了对应尺度的ResNet50特征图作为跳跃连接,与当前层的特征进行拼接,以帮助恢复图像的细节。
FTDC⁃Net模型的损失函数可用二值交叉熵(Binary cross entropy, BCE) 损失函
(1) |
式中:yc为输入图像的二值化像素值;pc为自编码器输出的概率值。在自编码任务中完成重建输入图像,而二进制交叉熵损失lBCE则用于衡量模型的输出与输入之间的差异,模型将输入图像传递到编码器,然后将编码器的输出传递到解码器,最终产生一个重建图像。二进制交叉熵损失函数通过比较重建图像和原始输入图像之间的像素级别差异,来指导模型优化学习过程。
在分割任务中使用lBCE和lDice损失的加权和l,可以综合考虑像素级别的分类准确性(通过lBCE)和分割结果的相似性(通过lDice)。lBCE在训练初期具有较好的稳定性,有助于加快模型的收敛速度,而lDice则更关注于像素级别的相似性,可以促使模型生成更平滑和连续的分割结果。其中表示权值,在实验中取值0.5,X、yc代表真实分割图像的像素标签,Y、pc表示模型的分割结果。|X∩Y|近似为预测图像的像素与真实标签图像像素之间的点乘,并将点乘结果相加。|X|和|Y|分别近似为它们各自对应图像中的像素相加。
U⁃Net中的传统卷积结构在处理长距离依赖关系时效果有限,特别是对于大范围的上下文信息。使用瓶颈层模块引入Transformer结构,通过自注意力机制,能够更好地捕捉图像中不同区域之间的关联。通过Transformer 编码层,瓶颈层模块实现了对输入特征图的全局信息建模,每个编码层内部包含多个注意力头,允许模型关注输入中不同位置的内容。
瓶颈层模块在网络中通常被设计为具有较小通道数的中间层,即输入通道数和输出通道数较多的层通过瓶颈层的中间层进行维度压缩和扩展。这种设计有助于减少模型的计算复杂度和参数量,同时保持较高的表示能力。
在本文模型中,瓶颈层模块包含几个顺序操作,如

图2 瓶颈层模块
Fig.2 Bottleneck layer module
Transformer编码器层中的多头注意力由多个自注意力组成,
(2) |
式中d为K矩阵的列数,即向量维度。
通过利用Transformer编码器层的能力,瓶颈层模块可以有效地捕捉特征之间的复杂关系,并增强所提取特征的表示判别能力。最后,使用3×3卷积层来恢复特征图的空间维度,同时保持压缩的表示,瓶颈层模块输出的特征图随后被送入后续层进行进一步处理和解码。
瓶颈层模块的引入显著提高了整体性能,通过维度的降低和相互依赖建模来提取和优化判别特征。通过压缩特征图并引入Transformer编码器层,瓶颈层模块确保了高效的信息流动,并促进了高级表示的学习,从而为成功分割息肉做出贡献。
由于FCN在医学图像分割中通过池化增大感受野缩小图像尺寸,然后通过上采样还原图像尺寸,但是这个过程中造成了精度的损失,为了减小这种损失就得去掉池化层,然而这样就会导致特征图感受野太小。为了解决这一问题,Yu

图3 空洞卷积模块
Fig.3 DilatedConv module
由于卷积操作的局部性,以U⁃Net为基础的网络架构缺乏感受野的范围。对比普通卷积,本文采用空洞卷积模块,空洞卷积在保持计算效率的同时增加了感受野的范围。使用不同的扩张率,每个卷积核关注不同范围的像素,从而丰富了模型对于图像层次结构的理解,实现多尺度的感受野,有助于捕获图像中不同尺度的信息。
空洞卷积模块由一系列的卷积操作组成。首先,通过使用不同的扩张率(Dilation rate)配置多个空洞卷积层,每个空洞卷积层具有不同的感受野大小。这种配置允许每个空洞卷积层通过扩大感受野,从而更好地捕捉图像中的局部和全局上下文信息,空洞卷积感受野可表示为
(3) |
式中:rn表示本层感受野;si表示第i层卷积的步长;k表示卷积核大小。
在具体的实现中,空洞卷积模块包括4个空洞卷积层,每个层的扩张率逐渐增加。通过使用不同的扩张率,空洞卷积模块能够在不增加模型参数的情况下显著增加感受野,以获得更大范围的上下文信息。在每个空洞卷积层之后,采用了一个1×1的卷积层进行特征融合。通过将4个空洞卷积层的输出特征在通道维度上进行拼接,然后应用1×1卷积操作,将通道数压缩到与输出通道数相匹配。这种特征融合策略能够有效地整合多个不同感受野的特征,提高特征的表达能力和判别性。
通过引入空洞卷积模块,本文的模型能够在图像分割任务中更好地捕捉特征的上下文信息。通过扩展感受野和特征融合,空洞卷积模块能够提供更全面的视觉信息,并改善模型对图像细节和全局结构的理解能力。因此,空洞卷积模块在提高息肉分割性能方面具有重要的意义,并在本文模型中发挥着关键的作用。
如

图4 残差模块
Fig.4 Residual module
因为本文模型较U⁃Net更复杂,为了缓解深度网络的梯度消失问题,通过在编码器和解码器中引入多个残差块,可以更好地提取低频信息、缓解语义信息缺失问题和梯度消失问题,从而提高图像分割的准确率。在本文模型中,残差结构被应用于编码器和解码器。这些残差结构的堆叠和组合使得模型能够更好地捕捉图像特征的细节和上下文信息,从而提高模型的性能和准确度。具体被应用于两个关键部分:瓶颈(Bottleneck)层模块和解码模块。在瓶颈层模块中,残差块通过残差连接将输入特征和卷积层的输出特征相加,以增强编码器的表达能力和信息传递效果。而在解码模块中,残差块接收上一层解码器的输出特征并与上采样后的特征进行连接,通过残差连接促进特征融合,有助于恢复细节信息和提高重建图像的质量。这种应用方式使得模型能够更好地传递和融合特征,提高模型的性能和重建效果。
如

图5 解码器块
Fig.5 Decoder block
使用两个公开的息肉数据集来评估所提出的方法:Kvasir⁃SE
为了增加模型的鲁棒性和泛化能力,先对原始数据集进行预处理,将原始图像数据进行数据增强,通过对原始图像进行旋转、裁剪、翻转、缩放、亮度调整和噪声添加等操作,生成具有不同视角、光照条件等特征的图像,生成更多的训练样本,可以有效地解决数据不平衡、过拟合和欠拟合等问题。通过数据增强,可以增加训练数据的数量和多样性,提高模型在实际场景中的表现和准确率。
将预处理后的图像输入模型,训练的批次大小为16,使用Adam优化
本文用来评估所提出方法的指标包括DSC分
(4) |
(5) |
(6) |
(7) |
式中:TP(True positive)表示预测为目标区域且与真实区域重叠的像素数;FP(False positive)表示预测为目标区域但与真实区域不重叠的像素数;FN(False negative)表示预测为背景区域但与真实区域重叠的像素数。
使用4个评价指标(DSC、IoU、Precision和Recall)在Kvasir⁃SEG数据集和ETIS⁃LARIBPOLYPDB数据集上评估所提出的模型。为了验证所提出模型的有效性,使用这两个数据集与经典和先进的6种算法做实验并进行对比分析,包括U⁃Ne
Method | DSC | IoU | Precision | Recall |
---|---|---|---|---|
U⁃Ne | 56.17 | 43.94 | 61.62 | 62.96 |
ResUNe | 69.87 | 57.76 | 77.12 | 69.83 |
UperNe | 70.70 | 64.83 | 81.96 | 70.61 |
SegResNe | 83.82 | 57.15 | 83.13 | 70.32 |
Deeplabv3+ | 69.04 | 75.81 | 91.25 | 83.78 |
DDANe | 85.76 | 78.00 | 86.43 | 88.80 |
MKDCNe | 79.70 | 73.62 | 85.07 | 81.15 |
TGANe | 85.23 | 79.31 | 89.55 | 88.23 |
FTDC⁃Net (本文方法) | 87.07 | 80.55 | 87.71 | 90.82 |
Method | DSC/% | IoU/% | Precision/% | Recall/% | Params/1 |
---|---|---|---|---|---|
U⁃Ne | 50.11 | 39.34 | 88.12 | 60.36 | 26.36 |
ResUNe | 60.32 | 47.83 | 86.42 | 63.54 | 30.00 |
UperNe | 64.83 | 53.26 | 85.32 | 66.23 | 126.07 |
SegResNe | 78.88 | 52.45 | 83.73 | 69.62 | 53.55 |
Deeplabv3+ | 65.09 | 70.11 | 89.75 | 82.58 | 40.00 |
DDANe | 80.76 | 74.03 | 83.63 | 86.83 | 6.84 |
MKDCNe | 76.02 | 63.29 | 83.66 | 83.58 | 19.84 |
TGANe | 77.49 | 72.38 | 86.65 | 79.67 | 19.84 |
FTDC⁃Net(本文方法) | 82.77 | 76.95 | 85.73 | 90.32 | 33.46 |
本文使用Kvasir⁃SEG数据集对多个模型进行了分割实验,并对实验结果(

图6 不同方法在Kvasir-SEG和ETIS-LARIBPOLYPDB 数据集上的分割结果
Fig.6 Segmentation results of different methods on Kvasir-SEG and ETIS-LARIBPOLYPDB datasets
综上所述,本文模型在2个数据集上各项评价指标均有所提高,分割结果图更加精准,表明该方法能有效地分割出结肠息肉,更具竞争力。
为了验证本文方法模块的有效性和必要性,分别对Kvasir⁃SEG和ETIS⁃LARIBPOLYPDB数据集进行广泛的消融实验,对提出的FTDC⁃Net模型的各个模块进行深入分析。在本文中,将分别针对FTDC⁃Net模型的Transformer编码器块、空洞卷积模块、自编码器注意力机制进行消融实验。通过逐个添加这些模块并比较它们在性能上的影响,探索每个组件对模型性能的贡献,基准网络为以ResNet50前4层作为编码提取特征,后续通过解码器进行分割,即将ResNet作为Encoder替换U⁃Net原始结构(ResUNet)。TF为Transformer编码器块,DC为Dilated⁃convolution模块,DA为自编码器注意力机制。
消融实验结果如表
Method | DSC | IoU | Precision | Recall |
---|---|---|---|---|
基准网络 | 79.41 | 39.34 | 81.09 | 83.46 |
+TF | 84.32 | 78.11 | 84.28 | 88.59 |
+DC | 86.33 | 79.26 | 86.92 | 89.73 |
+DA | 87.07 | 80.55 | 87.71 | 90.82 |
Method | DSC | IoU | Precision | Recall |
---|---|---|---|---|
基准网络 | 74.11 | 69.34 | 81.12 | 82.36 |
+TF | 79.32 | 74.83 | 83.42 | 87.54 |
+DC | 81.83 | 75.26 | 85.32 | 89.23 |
+DA | 82.77 | 76.95 | 85.73 | 90.32 |
从上述实验可以得出以下结论:在息肉分割任务中,Transformer编码器块、Dilated⁃convolution模块和自编码器注意力机制各自发挥着关键的作用。Transformer编码器块帮助模型处理不同尺度和形状的息肉,Dilated⁃convolution模块扩大感受野以捕获结构信息,自编码器注意力机制则调整注意力并增强对息肉区域的关注。因此,引入这些模块可以显著提高模型对息肉的分割性能。
为了解决由于息肉具有不同尺寸和形状而导致U⁃Net及其变体分割方法性能不佳的问题,本文提出了一种基于特征融合的息肉分割双解码模型。在传统的编码解码结构上,以ResNet50作为骨干网络,引入Transformer编码器用于特征融合以充分利用编码器提取的多尺度特征信息,采用多尺度的空洞卷积,增加感受野,使模型能够更好地处理大尺度目标,并在解码器中进行多分支的特征融合。同时,本文引入注意力机制来动态分配特征之间的相关权重,从而进一步提高分割性能。最终,该模型可以同时生成图像分割结果和图像重建结果。为了证明所提方法的有效性,在Kvasir⁃SEG和ETIS⁃LARIBPOLYPDB数据集上做了大量的实验。在实验中,对该模型进行了广泛的评估,并与其他流行的医学图像分割模型进行比较。实验结果表明,本文模型在各项指标上均有显著优势。未来的工作可以通过进一步优化模型结构和参数来改进本文提出的模型,探索更多的方法,以进一步提升分割性能,提升医学图像分割的应用范围。
参考文献
MAHMUD T, PAUL B, FATTAH S A. PolypSegNet: A modified encoder-decoder architecture for automated polyp segmentation from colonoscopy images[J]. Computers in Biology and Medicine, 2021, 128: 104119. [百度学术]
MORI Y, KUDO S. Detecting colorectal polyps via machine learning[J]. Nature Biomedical Engineering, 2018, 2(10): 713-714. [百度学术]
MAMONOV A V, FIGUEIREDO I N, FIGUEIREDO P N, et al. Automated polyp detection in colon capsule endoscopy[J]. IEEE Transactions on Medical Imaging, 2014, 33(7): 1488-1502. [百度学术]
TAJBAKHSH N, GURUDU S R, LIANG J. Automated polyp detection in colonoscopy videos using shape and context information[J]. IEEE Transactions on Medical Imaging, 2015, 35(2): 630-644. [百度学术]
GUPTA S, MAZUMDAR S G. Sobel edge detection algorithm[J]. International Journal of Computer Science and Management Research, 2013, 2(2): 1578-1583. [百度学术]
VALA H J, BAXI A. A review on Otsu image segmentation algorithm[J]. International Journal of Advanced Research in Computer Engineering & Technology (IJARCET), 2013, 2(2): 387-389. [百度学术]
李梦,詹毅,王艳.基于局部熵的区域活动轮廓图像分割模型[J].数据采集与处理,2023,38(3): 586-597. [百度学术]
LI Meng, ZHAN Yi, WANG Yan. Regional active contour image segmentation model based on local entropy[J]. Journal of Data Acquisition and Processing, 2023, 38(3): 586-597. [百度学术]
GU J, WANG Z, KUEN J, et al. Recent advances in convolutional neural networks[J]. Pattern Recognition, 2018, 77: 354-377. [百度学术]
YU L, CHEN H, DOU Q, et al. Integrating online and offline three-dimensional deep learning for automated polyp detection in colonoscopy videos[J]. IEEE Journal of Biomedical and Health Informatics, 2016, 21(1): 65-75. [百度学术]
RONNEBERGER O, FISCHER P, BROX T. U-net: Convolutional networks for biomedical image segmentation[C]//Proceedings of Medical Image Computing and Computer-Assisted Intervention—MICCAI 2015: 18th International Conference. Munich, Germany: Springer International Publishing, 2015: 234-241. [百度学术]
ZHANG Z, LIU Q, WANG Y. Road extraction by deep residual U-Net[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(5): 749-753. [百度学术]
ZHOU Z, RAHMAN SIDDIQUEE M M, TAJBAKHSH N, et al. Unet++: A nested U-net architecture for medical image segmentation[C]//Proceedings of Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support. Granada, Spain: Springer International Publishing, 2018: 3-11. [百度学术]
FAN D P, JI G P, ZHOU T, et al. PraNet: Parallel reverse attention network for polyp segmentation[C]//Proceedings of International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer International Publishing, 2020: 263-273. [百度学术]
CHEN J, LU Y, YU Q, et al. TransuNet: Transformers make strong encoders for medical image segmentation[EB/OL]. (2021-02-08). https://doi.org/10.48550/arXiv.2102.04306. [百度学术]
ZHANG Y, LIU H, HU Q. Transfuse: Fusing transformers and CNNs for medical image segmentation[C]//Proceedings of Medical Image Computing and Computer Assisted Intervention—MICCAI 2021: 24th International Conference. Strasbourg, France: Springer International Publishing, 2021: 14-24. [百度学术]
JHA D, RIEGLER M A, JOHANSEN D, et al. DoubleU-Net: A deep convolutional neural network for medical image segmentation[C]//Proceedings of 2020 IEEE 33rd International Symposium on Computer-Based Medical Systems (CBMS). [S.l.]: IEEE, 2020: 558-564. [百度学术]
CRESWELL A, ARULKUMARAN K, BHARATH A A. On denoising autoencoders trained to minimise binary cross-entropy[EB/OL]. (2017-08-28). https://doi.org/10.48550/arXiv.1708.08487. [百度学术]
VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Proceedings of Advances in Neural Information Processing Systems. [S.l.]: [s.n.], 2017. [百度学术]
YU F, KOLTUN V, FUNKHOUSER T. Dilated residual networks[J]. IEEE Computer Society, 2017. DOI:10.1109/CVPR.2017.75. [百度学术]
JHA D, SMEDSRUD P H, RIEGLER M A, et al. Kvasir-SEG: A segmented polyp dataset[C]//Proceedings of MultiMedia Modeling: 26th International Conference, MMM 2020. Daejeon, South Korea: Springer International Publishing, 2020: 451-462. [百度学术]
SILVA J, HISTACE A, ROMAIN O, et al. Toward embedded detection of polyps in WCE images for early diagnosis of colorectal cancer[J]. International Journal of Computer Assisted Radiology and Surgery, 2014, 9(2): 283-293. [百度学术]
KINGMA D P, BA J. Adam: A method for stochastic optimization[EB/OL]. (2014-12-22). https://doi.org/10.48550/arXiv.1412.6980. [百度学术]
PASZKE A, GROSS S, CHINTALA S, et al. Automatic differentiation in PyTorch[C]//Proceedings of the 31st Conference on Neural Information Processing Systems (NIPS). Long Beach, CA, USA: [s.n.], 2017. [百度学术]
YAO A D, CHENG D L, PAN I, et al. Deep learning in neuroradiology: A systematic review of current algorithms and approaches for the new wave of imaging technology[J]. Radiology: Artificial Intelligence, 2020, 2(2): e190026. [百度学术]
REZATOFIGHI H, TSOI N, GWAK J Y, et al. Generalized intersection over union: A metric and a loss for bounding box regression[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2019: 658-666. [百度学术]
GRAU J, GROSSE I, KEILWAGEN J. PRROC: Computing and visualizing precision-recall and receiver operating characteristic curves in R[J]. Bioinformatics, 2015, 31(15): 2595-2597. [百度学术]
XIAO T, LIU Y, ZHOU B, et al. Unified perceptual parsing for scene understanding[C]//Proceedings of the European Conference on Computer Vision (ECCV). [S.l.]: Springer, 2018: 418-434. [百度学术]
BADRINARAYANAN V, KENDALL A, CIPOLLA R. SegNet: A deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495. [百度学术]
CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 40(4): 834-848. [百度学术]
TOMAR N K, JHA D, ALI S, et al. DDANet: Dual decoder attention network for automatic polyp segmentation[C]//Proceedings of International Conference on Pattern Recognition Workshops. [S.l.]: Springer International Publishing, 2021: 307-314. [百度学术]
TOMAR N K, SRIVASTAVA A, BAGCI U, et al. Automatic polyp segmentation with multiple kernel dilated convolution network[C]//Proceedings of 2022 IEEE 35th International Symposium on Computer-Based Medical Systems (CBMS). [S.l.]: IEEE, 2022: 317-322. [百度学术]
TOMAR N K, JHA D, BAGCI U, et al. TGANet: Text-guided attention for improved polyp segmentation[C]//Proceedings of International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer Nature Switzerland, 2022: 151-160. [百度学术]