Bottleneck(瓶颈残差块)代码详解

class Bottleneck(nn.Module):
    expansion = 4  # 输出通道扩展系数
    
    def __init__(self, in_channels, out_channels, stride=1):
        super().__init__()
        # 1. 降维卷积 (1×1)
        self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=1, bias=False)
        self.bn1 = nn.BatchNorm2d(out_channels)
        
        # 2. 核心卷积 (3×3)
        self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=3, 
                               stride=stride, padding=1, bias=False)
        self.bn2 = nn.BatchNorm2d(out_channels)
        
        # 3. 升维卷积 (1×1)
        self.conv3 = nn.Conv2d(out_channels, out_channels * self.expansion, 
                              kernel_size=1, bias=False)
        self.bn3 = nn.Ba
ResNet50是一种深度残差网络(Residual Network),其中的关键组件是Bottleneck Block,也称为三元组块。这种设计允许网络在增加深度的同时避免梯度消失和过拟合问题。Bottleneck Block由三个主要部分组成: 1. **扩张卷积(Expansion Convolution)**:通常是一个1x1的卷积层,其作用是减小通道数(feature map的维度),从而降低计算量,并有助于提取更高级别的特征。 2. **主卷积(Depthwise Convolution)**:这是一个深度卷积(depthwise convolution),它的每个滤波器只对输入的一个通道进行卷积操作,这样可以显著扩展网络的容量而保持计算复杂度相对较低。这个步骤实际上是一个逐点的卷积,因为它对每个输入通道应用一个单独的滤波器。 3. **收缩卷积(Compression Convolution)**:又是一个1x1的卷积层,将上一步的输出通道数恢复到原始的尺寸,这部分也叫做投影层(projection shortcut),使得可以直接加上原始输入,这就是所谓的残差连接(residual connection)。这使得网络能够学习到如何直接添加输入到输出,即使在很深的层次,也可以通过这些连接直接传播信息。 Bottleneck Block的优势在于它允许在网络中加入更多的卷积层,而不会导致模型变得过于深而导致性能下降。它通过引入瓶颈结构和残差连接,使训练变得更加容易,同时也提高了模型的性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

浩瀚之水_csdn

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值