Mamba-UNet
摘要
在医学图像分析领域的最新进展中,卷积神经网络 (CNN) 和视觉变换器 (ViT) 树立了重要的标杆。前者擅长通过卷积运算捕捉局部特征,而后者则利用自注意力机制实现了卓越的全局上下文理解。 然而,这两种架构在高效建模医学图像中的长距离依赖关系方面都存在局限性,而长距离依赖关系是精确分割的关键方面。受 Mamba 架构的启发,我们提出了 Mamba-UNet,这是一种新颖的架构,将医学图像分割中的 U-Net 与 Mamba 的功能相结合,该架构以处理长序列和全局上下文信息的能力而闻名,并具有增强的计算效率,可作为状态空间模型 (SSM)。MambaUNet 采用纯 Visual Mamba (VMamba) 编码器-解码器结构,并注入跳跃连接以保留网络不同尺度上的空间信息。这种设计有助于全面的特征学习过程,捕捉医学图像中的复杂细节和更广泛的语义上下文。我们在 VMamba 模块中引入了一种新颖的集成机制,以确保编码器和解码器路径之间的无缝连接和信息流,从而提高分割性能。我们在公开的 ACDC MRI 心脏分割数据集和 Synapse CT 腹部分割数据集上进行了实验。结果表明,在相同的超参数设置 1 下,Mamba-UNet 在医学图像分割中的表现优于几种类型的 UNet。源代码和基线实现可在 https://github.com/ziyangwang007/MambaUNet 上找到。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 高桥凉介的博客!
评论