摘要

在医学影像分割领域,U-Net网络是目前最成功和最受关注的方法之一,但是U-Net本质上是一种经过改造的全卷积神经网络模型,要获得更为全面和准确的局部-整体关系,不但需要增加网络层次从而加大计算量,而且效果也并不明显。胶囊网络提供了一种有效的建模图像的局部与整体关系的方法,可以用更少的参数取得好的性能。但原始的胶囊网络并没有充分考虑图像局部特征的粒度问题,将其应用在医学图像分割领域还需进一步改造。因此,提出一种将U-Net和胶囊网络相结合的医学图像分割模型ConvUCaps。该模型对U-Net的编码器部分进行改进,使用卷积模块学习不同尺度的局部特征,然后通过胶囊模块学习高层特征,并建模局部与整体之间的关系。实验结果表明,相比U-Net、UNet++、SegCaps、Matwo-CapsNet网络,ConvUCaps提高了分割精度和收敛速度,同时,与单纯基于胶囊网络的分割模型相比,显著减少了推理时间。