目录
2.3 yolov5s_BiLevelRoutingAttention.yaml
1.BiFormer介绍
论文:https://arxiv.org/pdf/2303.08810.pdf
代码:https://github.com/rayleizhu/BiFormer
背景:注意力机制是Vision Transformer的核心构建模块之一,可以捕捉长程依赖关系。然而,由于需要计算所有空间位置之间的成对令牌交互,这种强大的功能会带来巨大的计算负担和内存开销。为了减轻这个问题,一系列工作尝试通过引入手工制作和内容无关的稀疏性到关注力中来解决这个问题,如限制关注操作在局部窗口、轴向条纹或扩张窗口内。
本文方法:本文提出一种动态稀