
本文共 1646 字,大约阅读时间需要 5 分钟。
Cycle-Consistent Training for Reducing Negative Jacobian Determinant in Deep Registration Networks
Differential Coordinates
在深度配准任务中,理想的变换(形变场)应该满足微分同胚的性质。这意味着变换不仅是可逆的,而且在拓扑结构上保持不变。微分同胚的定义是光滑且可逆的,而现有的配准方法往往无法从理论上保证形变场的平滑性和可逆性。
为了解决这一问题,研究者提出了一种基于循环一致性的训练机制,旨在帮助网络避免预测负雅可比行列式的变换,并生成更平滑的形变场。
Sampling and Transformation Networks
传统的配准方法,例如VoxelMorph网络,采用空间转换网络(STN)作为采样器。STN由变形单元和采样单元组成,其目标是生成一个位移场,用于将源图像转换为目标图像。具体而言,变形单元生成一个静态位移场,采样单元则通过插值方法将源图像转换为目标图像。
在VoxelMorph中,形变场的平滑性通常通过对位移场的导数进行L2正则化来实现。其损失函数为: [ C(y, \tilde{y}) + \lambda |D u|_{l_2} ] 其中,$C(y, \tilde{y})$是互相关函数,$\lambda$是正则项的权重。
尽管如此,现有方法仍存在以下问题:
Cycle-Consistent Training
为了解决上述问题,Prob-VoxelMorph网络引入了循环一致性训练机制。这种方法通过增加一个恢复原始图像的任务,间接保证形变场的平滑性。具体而言,网络首先将源图像配准到目标图像,生成一个变换,然后再将目标图像配准回源图像,形成一个循环过程。
循环一致性损失函数为: [ C(y, \tilde{y}) + \lambda |D u_{x \rightarrow \tilde{y}}|{l_2} + C(x, \tilde{x}) + \lambda |D u{\tilde{y} \rightarrow \tilde{x}}|_{l_2} ]
这种设计直接解决了网络的可逆性问题,同时也间接帮助网络学习到平滑的形变场。与传统双向配准不同,循环一致性配准仅使用单向配准任务,从而减少了计算开销。
Experiments
实验使用MindBoggle101数据集,包括NKI-RS-22、NKI-TRT-20和OASIS-TRT-20三个子数据集。每个图像大小为$144 \times 180 \times 144$,已对齐到MNI152空间,且灰度值归一化到[0,1]范围。
实验设置包括:
- 模型:原始的VoxelMorph网络作为backbone
- 超参数:$\lambda = 1$,学习率$10^{-4}$,10个epoch,三折交叉验证
- 评价指标:Dice值,表达式为: [ \text{Dice}((\phi \cdot L_x^i), L_y^i) = \frac{2|\phi \cdot L_x^i \cap L_y^i|}{|\phi \cdot L_x^i| + |L_y^i|} ]
实验结果表明,循环一致性配准方法显著减少了形变场的负雅可比行列式重叠位置($P$值),同时保持了较高的Dice值,表明配准精度得到有效提升。
Conclusion
通过引入循环一致性训练机制,Prob-VoxelMorph网络成功解决了深度配准中形变场的可逆性问题。这种方法不仅减少了负雅可比行列式的位置,还显著提高了配准精度。相比传统方法,循环一致性配准具有更低的计算开销和更好的鲁棒性,是深度配准领域的重要进展。
发表评论
最新留言
关于作者
