【论文笔记】用循环一致性避免形变场重叠的医学图像配准网络
发布日期:2021-05-08 05:36:30 浏览次数:22 分类:精选文章

本文共 1646 字,大约阅读时间需要 5 分钟。

Cycle-Consistent Training for Reducing Negative Jacobian Determinant in Deep Registration Networks

Differential Coordinates

在深度配准任务中,理想的变换(形变场)应该满足微分同胚的性质。这意味着变换不仅是可逆的,而且在拓扑结构上保持不变。微分同胚的定义是光滑且可逆的,而现有的配准方法往往无法从理论上保证形变场的平滑性和可逆性。

为了解决这一问题,研究者提出了一种基于循环一致性的训练机制,旨在帮助网络避免预测负雅可比行列式的变换,并生成更平滑的形变场。

Sampling and Transformation Networks

传统的配准方法,例如VoxelMorph网络,采用空间转换网络(STN)作为采样器。STN由变形单元和采样单元组成,其目标是生成一个位移场,用于将源图像转换为目标图像。具体而言,变形单元生成一个静态位移场,采样单元则通过插值方法将源图像转换为目标图像。

在VoxelMorph中,形变场的平滑性通常通过对位移场的导数进行L2正则化来实现。其损失函数为: [ C(y, \tilde{y}) + \lambda |D u|_{l_2} ] 其中,$C(y, \tilde{y})$是互相关函数,$\lambda$是正则项的权重。

尽管如此,现有方法仍存在以下问题:

  • 形变场的雅克比行列式在多个位置容易成为负值,即使增大$\lambda$也无法完全解决。
  • 超参数$\lambda$的确定具有较大的挑战性,较大的$\lambda$值会导致位移场过小,影响模型精度。
  • Cycle-Consistent Training

    为了解决上述问题,Prob-VoxelMorph网络引入了循环一致性训练机制。这种方法通过增加一个恢复原始图像的任务,间接保证形变场的平滑性。具体而言,网络首先将源图像配准到目标图像,生成一个变换,然后再将目标图像配准回源图像,形成一个循环过程。

    循环一致性损失函数为: [ C(y, \tilde{y}) + \lambda |D u_{x \rightarrow \tilde{y}}|{l_2} + C(x, \tilde{x}) + \lambda |D u{\tilde{y} \rightarrow \tilde{x}}|_{l_2} ]

    这种设计直接解决了网络的可逆性问题,同时也间接帮助网络学习到平滑的形变场。与传统双向配准不同,循环一致性配准仅使用单向配准任务,从而减少了计算开销。

    Experiments

    实验使用MindBoggle101数据集,包括NKI-RS-22、NKI-TRT-20和OASIS-TRT-20三个子数据集。每个图像大小为$144 \times 180 \times 144$,已对齐到MNI152空间,且灰度值归一化到[0,1]范围。

    实验设置包括:

    • 模型:原始的VoxelMorph网络作为backbone
    • 超参数:$\lambda = 1$,学习率$10^{-4}$,10个epoch,三折交叉验证
    • 评价指标:Dice值,表达式为: [ \text{Dice}((\phi \cdot L_x^i), L_y^i) = \frac{2|\phi \cdot L_x^i \cap L_y^i|}{|\phi \cdot L_x^i| + |L_y^i|} ]

    实验结果表明,循环一致性配准方法显著减少了形变场的负雅可比行列式重叠位置($P$值),同时保持了较高的Dice值,表明配准精度得到有效提升。

    Conclusion

    通过引入循环一致性训练机制,Prob-VoxelMorph网络成功解决了深度配准中形变场的可逆性问题。这种方法不仅减少了负雅可比行列式的位置,还显著提高了配准精度。相比传统方法,循环一致性配准具有更低的计算开销和更好的鲁棒性,是深度配准领域的重要进展。

    上一篇:石油远程《数控技术》在线考试
    下一篇:石油远程《机械制图》在线作业

    发表评论

    最新留言

    很好
    [***.229.124.182]2025年04月13日 05时53分40秒