浙江大学学报(理学版), 2023, 50(6): 745-753 doi: 10.3785/j.issn.1008-9497.2023.06.009

第26届全国计算机辅助设计与图形学学术会议专题

LK-CAUNet:基于交叉注意的大内核多尺度可变形医学图像配准网络

程天琪,1, 王雷,,1, 郭新萍1, 王钰帏1, 刘春香2, 李彬3

1.山东理工大学 计算机科学与技术学院,山东 淄博 255000

2.山东理工大学 资源与环境工程学院,山东 淄博 255000

3.华南理工大学 自动化科学与工程学院,广东 广州 510641

LK-CAUNet: Large kernel multi-scale deformable medical image registration network based on cross-attention

CHENG Tianqi,1, WANG Lei,,1, GUO Xinping1, WANG Yuwei1, LIU Chunxiang2, LI Bin3

1.School of Computer Science and Technology,Shandong University of Technology,Zibo 255000,Shandong Province,China

2.School of Resources and Environmental Engineering,Shandong University of Technology,Zibo 255000,Shandong Province,China

3.School of Automation Science and Engineering,South China University of Technology,Guangzhou 510641,China

通讯作者: ORCID:https://orcid.org/0000-0002-5275-2840,E-mail:wanglei0511@sdut.edu.cn.

收稿日期: 2023-06-12   修回日期: 2023-07-07   接受日期: 2023-07-14  

基金资助: 国家自然科学基金资助项目.  61502282.  62273155
山东省自然科学基金资助项目.  ZR2021MF017

Received: 2023-06-12   Revised: 2023-07-07   Accepted: 2023-07-14  

作者简介 About authors

程天琪(1997—),ORCID:https://orcid.org/0009-0006-8274-2287,女,硕士研究生,主要从事医学图像处理研究. 。

摘要

经典的UNet网络可用于预测全分辨率空间域的密集位移场,在医学图像配准中取得了巨大成功。但对大变形的三维图像配准,还存在运行时间长、无法有效保持拓扑结构、空间特征易丢失等缺点。为此,提出一种基于交叉注意的大内核多尺度可变形医学图像配准网络(large kernel multi-scale deformable medical image registration network based on cross-attention,LK-CAUNet)。在经典UNet模型基础上,通过引入交叉注意力模块,实现高效、多层次的语义特征融合;配备大内核非对称并行卷积,使其具有多尺度特征和对复杂结构的学习能力;通过加入平方和缩放模块,实现拓扑守恒和变换可逆。基于脑部MRI数据集,将LK-CAUNet与18种经典图像配准模型进行了比较,结果表明,LK-CAUNet的配准性能较其他模型有明显提升,其Dice得分较TransMorph配准方法提高了8%,而参数量仅为TransMorph的1/5。

关键词: 医学图像 ; 图像配准 ; UNet网络 ; 交叉注意力 ; 大内核卷积

Abstract

The UNet network can be used to predict the dense displacement field in the full-resolution spatial domain, and has achieved great success in the field of medical image registration. However, for three-dimensional images with large deformation, there are still shortcomings such as long running time, inability to effectively maintain the topological structure, and easily leading to the loss of spatial features. A large kernel multi-scale deformable medical image registration network based on cross-attention (LK-CAUNet) is proposed. Based on the classical UNet network, the cross-attention module is introduced to achieve efficient and multi-level semantic feature fusion. The large kernel asymmetric parallel convolution is equipped. It has the ability to learn multi-scale features and complex structures. Besides, an additional square and scaling module is added to let it have the advantages of topological conservation and transform reversibility. Using the brain MRI dataset, it is demonstrated that the proposed method has significantly improved the registration performance compared with the eighteen classical registration methods. Especially compared with the most advanced TransMorph registration method, the Dice score can be improved by 8%, and the parameter quantity is only one fifth of it.

Keywords: medical image ; image registration ; UNet network ; cross-attention ; large kernel convolution

PDF (2794KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

程天琪, 王雷, 郭新萍, 王钰帏, 刘春香, 李彬. LK-CAUNet:基于交叉注意的大内核多尺度可变形医学图像配准网络. 浙江大学学报(理学版)[J], 2023, 50(6): 745-753 doi:10.3785/j.issn.1008-9497.2023.06.009

CHENG Tianqi, WANG Lei, GUO Xinping, WANG Yuwei, LIU Chunxiang, LI Bin. LK-CAUNet: Large kernel multi-scale deformable medical image registration network based on cross-attention. Journal of Zhejiang University(Science Edition)[J], 2023, 50(6): 745-753 doi:10.3785/j.issn.1008-9497.2023.06.009

医学图像配准是现代计算机辅助诊断应用系统必不可少的模块,是实现如手术导航1、图像重建2、图谱构建3等自动化分析任务的重要前提。从数学的角度看,医学图像配准就是在特定的相似性目标测度函数下求解空间变换,使得变换后待配准图像之间的相似性达到最大或差异性达到最小。从图像变形的角度看,医学图像配准通常可分为刚性配准和变形配准。前者主要用于估计骨骼等刚性物体之间的整体变化;后者侧重于估计局部差异,如器官的运动。与刚体配准只需求解平移、旋转、缩放等有限参数不同,变形配准旨在获得从运动图像到固定图像的优化多参数可变形场4

传统的医学图像配准方法通常通过迭代优化生成理想的空间变换,需要使用运动图像与固定图像之间的相似性测度确定迭代过程是否达到最优。运用迭代优化技术的FFD5、Demons6、ANTS7、Flash8和ADMM9等方法已被应用于变形图像配准。然而,这种基于优化的方法需对每个图像进行精细的超参数调优,非常耗时,限制了其在实时和大规模数据配准中的应用。

近年来,基于深度学习的方法在医学图像配准领域迅速发展。试图通过学习运动图像和固定图像中变化的位移矢量场的通用表示,将运动图像映射到固定图像10。最典型的为VoxelMorph11,采用UNet风格的架构估计密集的空间变形场。因只需在推理过程中进行一次前向传播,其速度比传统方法快几个数量级。此后,大量针对不同配准任务的基于深度学习的方法被相继提出12-18。然而,具有挑战性的应用和计算机视觉的最新进展表明,卷积操作的有效接受场受卷积核大小的限制,卷积神经网络在建模图像的远程空间关系上具有局限性。因此,自注意力机制具有大尺寸有效接受野的Transformer成为研究热点。CHEN等19在V-Net风格的卷积网络中采用vision transformer块提出了ViT-V-Net,并对其进行了改进,用swin-transformers取代VoxelMorph中的基本卷积块,进一步提出了TransMorph17,使模型能够捕获远程空间信息,提高配准性能。虽然这些方法证实了transformer在图像配准中的有效性,但需大量的参数和GPU内存,大大增加了计算复杂度。

卷积神经网络在理解特征之间的空间对应关系方面能力有限,虽然基于transformer的配准模型可在一定程度上解决这一问题,但是巨大的参数量使模型在很多配准任务中难以实现。受transformer的启发,嵌入自注意力机制的模型在图像配准任务中表现出色。为提高卷积神经网络在医学图像中的配准精度,张纠等20提出一种双通道级联注意力网络,在配准过程中引入注意力机制进行特征权重分配,增强网络的特征表达能力。秦庭威等21将残差注意力机制引入动态图卷积网络,使得点云空间信息被有效利用,并减少了信息损失。虽然这些深度学习网络在单幅图像特征表示上能力较强,但在可变形医学图像配准中对图像对的特征提取和匹配仍存在局限性。如图1所示,可变形医学图像配准方法先将移动图像与固定图像融合,模拟单幅图像输入条件,再将融合后的图像输入运动-固定特征的单幅图像网络,出现混合区域内的特征失真22-23。这些方法因将特征提取和特征匹配过程相混合,导致混合区域特征失真和弱对齐,从而无法实现图像对之间的一一对应。最终导致关键结构缺失和配准细节较差。

图1

图1   单幅图像网络配准流程

Fig.1   Single image network registration process


为了捕获运动-固定图像对之间的对应关系,提出基于交叉注意的大内核多尺度可变形医学图像配准网络(large kernel multi-scale deformable medical image registration network based on cross-attention,LK-CAUNet),如图2所示。该网络包括2个并行的特征提取子网络,各自以交叉注意的形式进行特征融合和匹配,通过基于交叉注意的融合模块,逐步融合匹配不同图像的特征表示,从而实现运动图像与固定图像对应的有效特征表示,将获得的多层次语义信息进行精细配准。同时,为匹配transformer模型的大尺寸有效接受野,在模型中嵌入可增加有效接受野的不对称并行卷积块,使其能够学习更复杂的图像结构,捕捉图像的细微变化,并阐明编码的全局相关性。此外,利用微分同胚映射计算平滑可逆的变形场。

图2

图2   基于交叉注意的特征融合与特征匹配

Fig.2   Feature fusion and feature matching based on cross attention


1 LK-CAUNet模型

1.1 整体框架

给定空间ΩRd中的运动图像Im和固定图像If,可变形图像配准的目标是找到最优的非线性密集变换或变形场φΩ×RΩ,使配准图像与固定图像之间的损失最小:

φminED(φ;fIm,fIf)+ER(φ)

其中,ED为数据匹配项,用于评估运动图像的对齐特征fIm与固定图像的对齐特征fIf之间的相似性,ER为正则化项。

LK-CAUNet模型的整体框架如图3所示。首先,将运动图像和固定图像分别输入各自带有大内核多尺度特征提取卷积块的特征提取子网络,以交叉注意的形式对特征进行融合和匹配,对融合的特征进行上采样后,获得运动图像与固定图像的全分辨率位移场。然后,用平方和缩放层保证最终变形的异胚性。最后,通过最小化损失函数估计变形量,将运动图像变形为与固定图像相似。

图3

图3   LK-CAUNet模型整体框构

Fig.3   Architecture of LK-CAUNet model


1.2 LK-CAUNet模型

通过将大内核多尺度特征提取卷积块和交叉注意力模块集成至普通UNet模型,提出一种用于医学图像配准的模型。在图像配准任务中,将运动图像和固定图像分别输入各自的编码器模块,用带有大内核多尺度特征提取卷积块的编码器提取输入图像的特征,用交叉注意力模块逐步融合匹配两部分的特征表示,将融合后的特征输入解码器进行像素分类,以重构分割输出。

由于医学图像的大变形区域形变复杂,固定尺寸的卷积核难以对其进行有效的信息提取。为了避免信息之间完整性和连续性的丢失,编码器部分包含一种带有平行臂的大内核多尺度特征提取卷积块,将不同尺度卷积核提取的特征相融合,可有效弥补离散卷积核造成的信息缺失,如图4所示。在大内核多尺度特征提取卷积块中,输入数据经初始卷积后被分成不同内核大小的并行卷积分支。首先,一个核大小为3×3×3的卷积后跟随一组核大小分别为1×1×1,3×3×3和k×k×k的并行卷积。为减少并行卷积产生的(大量)特征参数,在卷积操作中应用核分解,即将N×N×N的卷积分解为3个连续的1×1×N,1×N×1和N×1×1卷积。然后,将不同支路的输出相连接。为了保留部分完整信息,在并行卷积旁增加残差连接。最后,使用ReLU激活函数修正大内核多尺度特征提取卷积块的输出。

图4

图4   大内核多尺度特征提取卷积块

Fig.4   Large kernel multi-scale feature extraction convolution block


采用交叉注意力模块融合大内核多尺度特征提取卷积块,从运动图像和固定图像中提取图像特征,该图像特征与计算单幅图像自我注意力的非局部块不同24。交叉注意力模块旨在建立两幅不同图像特征之间的空间对应关系,该模块的结构如图5所示。模块的两个输入特征映射分别记为原始输入PRLWH×64和交叉输入CRLWH×64LWH表示每个三维特征扁平化后的尺寸。交叉特征可以表示为

yi=jf(θCiTϕ(Pj))s(Pj)jf(θCiTϕ(Pj))

其中,CiPj分别是交叉输入和原始输入在位置ij处的特征,θ()ϕ()s()均为线性嵌入,f=exp ()为特征CiPj之间相关性的标量,yi表示原始输入在所有位置处的特征的归一化汇总,这些特征可与位置i处的特征的相关性加权。因此,由yi组成的矩阵 Y 集成了从原始输入到交叉输入所有位置的非局部信息。最后,模块的输出为 Y 和原始输入的和,可允许有效的反向传播。因此,在模块的输出中,位置k的特征为原始输入特征图与交叉输入特征图位置k之间的非局部相关性总结,以及原始输入特征图位置k处的信息。

图5

图5   交叉注意力模块的结构

Fig.5   The structure of cross-attention module


同时,针对图像配准任务,利用微分同胚映射计算平滑且可逆的变形场,从而保证运动图像变形但不丢失显著特征,即在模型输出的稳定变形场的基础上,采用7个缩放和平方层计算积分,以诱导异胚化,最终变形场可表示为=exp (v)17

1.3 损失函数

在获取输入图像的全分辨率微分变形场后,对运动图像进行变形,以产生配准图像,用于计算损失。

无监督损失函数由均方误差(mean square error,MSE)数据项和表示变形场梯度的L2范数正则化项组成,并用超参数λ进行权重平衡。MSE数据项可表示为

losssim=1Ni=1N[Imiϕiθ-Ifi]2

L2范数正则化项可表示为

losssmooth=1Nviθ22

其中,N表示输入的运动图像或固定图像数,θ表示待学习的模型参数,表示对运动图像的变形操作,表示通过有限差分实现的第一个梯度。因此,总损失函数可表示为

losstotal=losssim+λ losssmooth

其中,λ=0.25。

2 实验结果和讨论

2.1 实验细节

为了评估提出的配准方法,使用OASIS数据集25和IXI数据集(https://brain-development.org/ixi-dataset)进行验证。OASIS数据集由413个T1加权MRI图像组成。使用Learn2Reg 2021挑战提供的预处理OASIS数据集进行主体间脑配准。每次MRI脑部扫描均需经过颅骨剥离、对齐、归一化处理,分辨率为160×192×224。在该数据集中,394幅图像用于训练,19幅图像对用于测试。同时,使用35个解剖结构的标签掩膜,使用Dice得分等指标评估配准性能。

IXI数据集的固定图像为576幅T1加权脑MRI图像,运动图像为脑部MRI数据16,使用FreeSurfer预处理。将所有图像尺寸裁剪为160×192×224。将数据集划分为403,58和115幅,分别用于训练、验证和测试。同时,使用包含30个解剖结构的标签图评估配准性能。

在LK-CAUNet模型中,除了在大内核多尺度特征提取卷积块中设置不同大小的卷积核尺寸外,其他所有的卷积核尺寸均设置为3×3×3。用PyTorch作为机器学习库,Adam作为优化器,批处理大小设置为1,迭代次数设置为300,训练过程学习率固定为1×10-4

对配准图像与固定图像进行定量和定性比较,评估不同方法的配准性能。Dice得分是一种基于重叠度的比较方法,以其作为定量评估指标。首先,使用ANTs Atropos分割方法将固定图像和配准图像分割为脑脊液、白质、灰质和背景4个部分26。然后,计算每部分的Dice得分,取其平均值。固定图像Sprefix与配准图像Spremovϕ之间的Dice得分为

Dice=2SpremovϕSprefixSpremovϕ+Sprefix

2.2 结果和讨论

通过消融实验,比较UNet模型、加入大内核多尺度特征提取卷积块网络(LK-UNet)模型和本文提出的既包含大内核多尺度特征提取卷积块又包含交叉注意力模块网络(LK-CAUNet)模型在OASIS数据集上的配准性能,结果如表1所示。由表1可知,LK-UNet模型优于UNet模型,LK-CAUNet模型的Dice得分较UNet模型约提高了0.01,可见,大内核多尺度特征提取卷积块和交叉注意力模块是有效的。消融实验的可视化结果如图6所示,其中,(a)和(b)分别表示固定图像和移动图像,(c)(e)和(g)分别为3种模型的配准图像,配准结果借助紫色圆圈和橙色方框突出显示,(d)(f)和(h)分别为(c)(e)和(g)对应的变形场颜色图,颜色越深表示颜色的细腻程度越高,数值越大表示色彩过渡越平滑自然。观察发现,相较于图6(d)和(f),图6(h)大部分区域的颜色值在0.5以上,且颜色值在0.4以下的区域面积较小,因此,图6(h)对应的变形场比图6(d)和(f)对应的变形场平滑。

表1   消融实验

Table 1  Ablation experiment

模型Dice得分
UNet0.762 5
LK-UNet0.765 1
LK-CAUNet0.772 0

新窗口打开| 下载CSV


图6

图6   消融实验可视化结果

Fig.6   Visualization results of ablation experiment


将LK-CAUNet模型与18种具有较好配准性能的Affine、SyN27、NiftyReg28、LDDMM29、deedsBCV30、VoxelMorph1122、VoxelMorph-diff31、CycleMorph16、MIDIR32、ViT-V-Net19、CoTr3、PVT33、nnFormer34、TransMorph17、TransMorph-Bayes17、TransMorph-bspl17、UNet和TransMorph-diff17模型进行了比较,结果如表2所示。其中,前5种为非深度学习配准方法,为平衡配准精度与运行时间,通常根据经验设定其超参数。后13种为基于深度学习的配准方法,为保证结果的准确性,通常选择由MSE和扩散正则化项组成的损失函数进行MRI配准。

表2   不同配准方法的结果比较

Table 2  Comparison of the results of different registration methods

模型平均Dice得分| J |≤0的百分比/%参数量/M
Affine0.386±0.195--
SyN0.639±0.151<0.000 1-
NiftyReg0.640±0.166<0.000 1-
LDDMM0.675±0.135<0.000 1-
deedsBCV0.733±0.1260.147±0.050-
VoxelMorph0.723±0.1301.590±0.3391.10
VoxelMorph-diff0.577±0.165<0.000 11.23
CycleMorph0.730±01241.719±0.3820.36
MIDIR0.736±0.129<0.000 10.27
ViT-V-Net0.728±0.1241.609±0.3199.82
CoTr0.721±0.1281.858±0.31438.72
PVT0.729±0.1351.292±0.34258.80
nnFormer0.740±0.1341.595±0.35834.40
TransMorph0.746±0.1281.579±0.32846.80
TransMorph-Bayes0.746±0.1231.560±0.33321.20
TransMorph-bspl0.752±0.128<0.000 146.80
TransMorph-diff0.599±0.156<0.000 146.60
UNet0.727±0.1261.524±0.3530.28
LK-CAUNet0.828±0.138<0.000 19.06

新窗口打开| 下载CSV


表2可知,LK-CAUNet模型的平均Dice得分最高,为0.828,且在变形场中几乎不产生折叠。虽然LK-CAUNet模型的参数量是CycleMorph和UNet模型的数十倍,但是其平均Dice得分提高了10%左右,且其变形场要平滑得多。同时,LK-CAUNet的参数量仅为TransMorph的1/5,但其Dice得分提高了8%左右,表明将大内核多尺度特征提取卷积块和交叉注意力模块嵌入UNet架构能产生较好的配准效果。

几种经典配准方法以及LK-CAUNet的可视化结果如图7所示。由图7可知,图7(m)整体更平滑,即LK-CAUNet产生的变形场更平滑。另外,LK-CAUNet模型表现出更好的定性结果(用蓝色方框和红色方框突出显示),LK-CAUNet模型的配准性能较其他模型有明显的提升。

图7

图7   不同配准方法的可视化结果

Fig.7   Visualization results of different registration methods


3 结 论

针对当前配准方法存在运行时间长、无法有效保持拓扑结构、空间特征易丢失等缺点,提出了一种新型的医学图像配准网络LK-CAUNet,可以有效表示固定图像与运动图像之间的空间对应关系。通过引入交叉注意力模块,精确捕获了最终的交叉图像对应关系,实现了精细配准。同时,应用大内核多尺度特征提取卷积块,增加了模型的有效接受野,能捕获复杂图像的结构特征。对比实验结果表明,LK-CAUNet模型在可变形医学图像配准中表现优异,具有广阔的应用前景。

未来,将继续优化配准方法,进一步提高其准确性和鲁棒性,并将其应用于其他配准任务。

http://dx.doi.org/10.3785/j.issn.1008-9497.2023.06.009

参考文献

LIU XLI ZISHII Met al.

SAGE: Slam with appearance and geometry prior for endoscopy

[C]// 2022 International Conference on Robotics and Automation (ICRA). PhiladelphiaIEEE20225587-5593. DOI:10.1109/icra46639.2022.9812257

[本文引用: 1]

GAZIV GBELIY RGRANOT Net al.

Self-supervised natural image reconstruction and large-scale semantic classification from brain activity

[J]. NeuroImage, 2022254119121. DOI:10.1016/j.neuroimage.2022.119121

[本文引用: 1]

XIE Y TZHANG J PSHEN C Het al.

CoTr: Efficiently bridging CNN and transformer for 3D medical image segmentation

[C]// The 24th International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI). StrasbourgSpringer International Publishing2021171-180. DOI:10.1007/978-3-030-87199-4_16

[本文引用: 2]

SOTIRAS ADAVATZIKOS CPARAGIOS N.

Deformable medical image registration: A survey

[J]. IEEE Transactions on Medical Imaging, 2013327): 1153-1190. DOI:10.1109/TMI.2013.2265603

[本文引用: 1]

RUECKERT DSONODA LHAYES Cet al.

Nonrigid registration using free-form deformations: Application to breast MR images

[J]. IEEE Transactions on Medical Imaging, 1999188): 712-721. DOI:10.1109/42.796284

[本文引用: 1]

VERCAUTEREN TPENNEC XPERCHANT Aet al.

Diffeomorphic demons: Efficient non-parametric image registration

[J]. NeuroImage, 2009451): S61-S72. DOI:10.1016/j.neuroimage. 2008.10.040

[本文引用: 1]

AVANTS B BTUSTISON N JSONG Get al.

A reproducible evaluation of ANTs similarity metric performance in brain image registration

[J]. NeuroImage, 2011543): 2033-2044. DOI:10. 1016/j.neuroimage.2010.09.025

[本文引用: 1]

ZHANG MFLETCHER P T.

Fast diffeomorphic image registration via fourier-approximated lie algebras

[J]. International Journal of Computer Vision, 201912761-73. DOI:10.1007/s11263-018-1099-x

[本文引用: 1]

THORLEY AJIA XCHANG H Jet al.

Nesterov accelerated ADMM for fast diffeomorphic image registration

[C]// Medical Image Computing and Computer Assisted Intervention-MICCAI 2021: 24th International Conference. StrasbourgSpringer International Publishing2021150-160. DOI:10.1007/978-3-030-87202-1_15

[本文引用: 1]

HERING AHANSEN LMOK T C Wet al.

Learn2Reg: Comprehensive multi-task medical image registration challenge, dataset and evaluation in the era of deep learning

[J]. IEEE Transactions on Medical Imaging, 2023423): 697-712. DOI:10. 1109/TMI.2022.3213983

[本文引用: 1]

BALAKRISHNAN GZHAO ASABUNCU M Ret al.

VoxelMorph: A learning framework for deformable medical image registration

[J]. IEEE Transactions on Medical Imaging, 2019388): 1788-1800. DOI:10.1109/TMI.2019.2897538

[本文引用: 2]

SUN S LHAN KKONG D Yet al.

Topology-preserving shape reconstruction and registration via neural diffeomorphic flow

[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New OrleansIEEE202220845-20855. DOI:10.1109/CVPR52688.2022.02018

[本文引用: 1]

ZHAO S YDONG YCHANG Eet al.

Recursive cascaded networks for unsupervised medical image registration

[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. SeoulIEEE201910600-10610. DOI:10.1109/ICCV.2019.01070

MOK T C WCHUNG A.

Fast symmetric diffeomorphic image registration with convolutional neural networks

[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. SeattleIEEE20204644-4653. DOI:10.1109/CVPR42600.2020.00470

JIA XTHORLEY ACHEN Wet al.

Learning a model-driven variational network for deformable image registration

[J]. IEEE Transactions on Medical Imaging, 2021411): 199-212. DOI:10. 1109/TMI.2021.3108881

KIM BKIM D HPARK S Het al.

CycleMorph: Cycle consistent unsupervised deformable image registration

[J]. Medical Image Analysis, 202171102036. DOI:10.1016/j.media.2021.102036

[本文引用: 2]

CHEN JFREY E CHE Yet al.

TransMorph: Transformer for unsupervised medical image registration

[J]. Medical Image Analysis, 202282102615. DOI:10.1016/j.media.2022.102615

[本文引用: 6]

JIA XBARTLETT JZHANG T Yet al.

UNet vs transformer: Is UNet outdated in medical image registration?

[C]// LIAN C F, CAO X H, REKIK I, et al. Machine Learning in Medical Imaging. ChamSpringer2022151-160. DOI:10.1007/978-3-031-21014-3_16

[本文引用: 1]

CHEN JHE YFREY E Cet al.

ViT-V-Net: Vision Transformer for Unsupervised Volumetric Medical Image Registration

[Z]. (2021-04-13). https://arXiv/org/abs/2104.06468. doi:10.1016/j.media.2022.102615

[本文引用: 2]

张纠刘晓芳杨兵.

基于双通道级联注意力网络的医学图像配准

[J]. 计算机工程与设计, 20214210): 2894-2901. DOI:10.16208/j.issn1000-7024.2021.10.026

[本文引用: 1]

ZHANG JLIU X FYANG B.

Medical image registration based on dual-stream cascaded attention network

[J]. Computer Engineering and Design, 20214210): 2894-2901. DOI:10.16208/j.issn1000-7024.2021.10.026

[本文引用: 1]

秦庭威赵鹏程秦品乐.

基于残差注意力机制的点云配准算法

[J]. 计算机应用, 2022427):2184-2191.

[本文引用: 1]

QIN T WZHAO P CQIN P Let al.

Point cloud registration algorithm based on residual attention mechanism

[J]. Journal of Computer Application, 2022427):2184-2191.

[本文引用: 1]

BALAKRISHNAN GZHAO ASABUNCU M Ret al.

An unsupervised learning model for deformable medical image registration

[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake CityIEEE20189252-9260. DOI:10.1109/CVPR.2018.00964

[本文引用: 2]

VOS B D DBERENDSEN F FVIERGEVER M Aet al.

End-to-end unsupervised deformable image registration with a convolutional neural network

[C]// Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support. ChamSpringer2017204-212. DOI:10.1007/978-3-319-67558-9_24

[本文引用: 1]

WANG XGIRSHICK RGUPTA Aet al.

Non-local neural net-works

[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake CityIEEE20187794-7803. DOI:10.1109/CVPR.2018.00813 .

[本文引用: 1]

MARCUS D SWANG T HPARKER Jet al.

Open access series of imaging studies (OASIS): Cross-sectional MRI data in young, middle aged, nondemented, and demented older adults

[J]. Journal of Cognitive Neuroscience, 2007199): 1498-1507. DOI:10.1162/jocn.2007.19.9.1498

[本文引用: 1]

AVANTS B BTUSTISON N JWU Jet al.

An open source multivariate framework for n-tissue segmentation with evaluation on public data

[J]. NeuroInformatics, 20119381-400. DOI:10.1007/s12021-011-9109-y

[本文引用: 1]

AVANTS B BEPSTEIN C LGROSSMAN Met al.

Symmetric diffeomorphic image registration with cross-correlation: Evaluating automated labeling of elderly and neurodegenerative brain

[J]. Medical Image Analysis, 2008121): 26-41. DOI:10.1016/j.media.2007.06.004

[本文引用: 1]

MODAT MRIDGWAY G RTAYLOR Z Aet al.

Fast free-form deformation using graphics processing units

[J]. Computer Methods and Programs in Biomedicine, 2010983): 278-284. DOI:10.1016/j.cmpb.2009.09.002

[本文引用: 1]

BEG M FMILLER M ITROUVÉ Aet al.

Computing large deformation metric mappings via geodesic flows of diffeomorphisms

[J]. International Journal of Computer Vision, 200561139-157. DOI:10.1023/B:VISI.0000043755.93987.aa

[本文引用: 1]

HEINRICH M PMAIER OHANDELS H.

Multi-modal multi-atlas segmentation using discrete optimisation and self-similarities

[J]. VISCERAL Challenge@ ISBI, 2015139027.

[本文引用: 1]

DALCA A VBALAKRISHNAN GGUTTAG Jet al.

Unsupervised learning of probabilistic diffeomorphic registration for images and surfaces

[J]. Medical Image Analysis, 201957226-236. DOI:10.1016/j.media.2019.07.006

[本文引用: 1]

QIU H QQIN CSCHUH Aet al.

Learning diffeomorphic and modality-invariant registration using B-splines

[C]// International Conference on Medical Imaging with Deep Learning. LubeckMDPL20211-20.

[本文引用: 1]

WANG WXIE ELI Xet al.

Pyramid vision transformer: A versatile backbone for dense prediction without convolutions

[C]// 2021 IEEE/CVF International Conference on Computer Vision (ICCV). MontrealIEEE2021548-558. DOI:10.1109/ICCV48922.2021.00061

[本文引用: 1]

ZHOU H YGUO JZHANG Yet al.

NNFormer: Interleaved trans-former for volumetric segmentation

[J]. IEEE Transactions on Image Processing, 2023324036-4045. DOI:10.1109/TIP.2023.3293771

[本文引用: 1]

/