本文介绍了一种新的视觉Transformer
,称为Swin Transformer
,它可以作为计算机视觉通用的骨干网络。从语言到视觉的转换中,适应Transformer
所面临的挑战源于两个领域之间的差异,如视觉实体尺度的巨大变化和图像中像素的高分辨率与文本中单词的差异。为了解决这些差异,我们提出了一种分层Transformer
,其表示是通过Shifted
窗口计算的。Shifted
窗口方案通过将自注意计算限制在非重叠的本地窗口内,同时允许跨窗口连接,从而提高了效率。这种分层架构具有在不同尺度下进行建模的灵活性,并且与图像大小的计算复杂度呈线性关系。这些特性使Swin Transformer
与广泛的视觉任务兼容,包括图像分类(在ImageNet-1K
上的87.3
的top-1
准确率)和密集预测任务,如物体检测(在COCO
测试中的58.7 box AP
和51.1 mask AP
)和语义分割(在ADE20K val
上的53.5 mIoU
)。它的性能在COCO
上比先前的最先进水平提高了2.7
个box AP
和2.6
个mask AP
,在ADE20K
上提高了3.2
个mIoU
,展示了基于Transformer的模型作为视觉骨干的潜力。分层设计和Shifted
窗口方法对于所有MLP
架构也证明是有益的。
论文地址:https://arxiv.org/pdf/2103.14030.pdf
代码地址:https://github.com/microsoft/Swin-Transformer