活动介绍

需要用 PyTorch 的基础算子实现“调制型可变形卷积”(参考论文《Deformable ConvNets v2》),一个纯 PyTorch 的实现思路和代码。仿照mmcv.ops.modulated_deform_conv包里面的ModulatedDeformConv2d函数,实现自定义代码,这是里面的代码:class ModulatedDeformConv2d(nn.Module): @deprecated_api_warning({'deformable_groups': 'deform_groups'}, cls_name='ModulatedDeformConv2d') def __init__(self, in_channels: int, out_channels: int, kernel_size: Union[int, Tuple[int]], stride: int = 1, padding: int = 0, dilation: int = 1, groups: int = 1, deform_groups: int = 1, bias: Union[bool, str] = True): super().__init__() self.in_channels = in_channels self.out_channels = out_channels self.kernel_size = _pair(kernel_size) self.stride = _pair(stride) self.padding = _pair(padding) self.dilation = _pair(dilation) self.groups = groups self.deform_groups = deform_groups # enable compatibility with nn.Conv2d self.transposed = False self.output_padding = _single(0) self.weight = nn.Parameter( torch.Tensor(out_channels, in_channels // groups, *self.kernel_size)) if bias: self.bias = nn.Parameter(torch.Tensor(out_channels)) else: self.register_parameter('bias', None) self.init_weights() def init_weights(self): n = self.in_channels for k in self.kernel_size: n *= k stdv = 1. / math.sqrt(n) self.weight.data.uniform_(-stdv, stdv) if self.bias is not None: self.bias.data.zero_() def forward(self, x: torch.Tensor, offset: torch.Tensor, mask: torch.Tensor) -> torch.Tensor: return modulated_deform_conv2d(x, offset, mask, self.weight, self.bias, self.stride, self.padding, self.dilation, self.groups, self.deform_groups)

时间: 2025-07-20 11:18:18 浏览: 5
<think>我们参考mmcv中的ModulatedDeformConv2d,但使用纯PyTorch实现。由于可变形卷积涉及对输入特征图的非规则位置采样,我们可以通过双线性插值实现。调制可变形卷积(DCNv2)在可变形卷积(DCNv1)的基础上增加了调制因子(mask),用于调整每个采样点的权重。 实现思路: 1. 首先,我们需要根据输入特征图x、偏移量offset和调制因子mask(也称为mask)来生成采样网格。 2. 然后,根据偏移量调整采样网格的位置,并使用双线性插值从输入特征图中采样。 3. 接着,将调制因子(经过sigmoid激活)与采样的特征相乘,实现调制。 4. 最后,对调制后的特征进行标准卷积操作(实际上,由于采样后的特征图已经包含了偏移和调制,我们可以将其视为一个规则的特征图,然后用标准卷积操作)。 但是,注意:在mmcv的实现中,整个操作是融合的,效率较高。而我们的纯PyTorch实现将分为两个步骤:采样和卷积。然而,由于采样后的特征图大小和原始输入一致,我们可以直接进行卷积。 具体步骤: 设输入特征图x的形状为:$(N, C_{in}, H, W)$ 偏移量offset的形状为:$(N, 2 \times kH \times kW, H, W)$,其中kH和kW是卷积核的高度和宽度。 调制因子mask的形状为:$(N, kH \times kW, H, W)$ [注意:在mmcv中,mask是kH*kW个通道,每个位置对应一个采样点的权重] 我们需要为每个输出位置生成一个采样网格,该网格由标准网格加上偏移量得到。然后,我们通过双线性插值采样得到每个卷积核位置的值,再乘以调制因子,最后将卷积核覆盖的所有采样点求和(即卷积操作)。 然而,由于标准卷积操作是规则且固定的,而这里每个位置的采样点都不同,因此我们需要自己实现一个类似卷积的聚合操作。我们可以这样考虑: 对于输出特征图的每个位置$p_0$,卷积核的每个权重位置$p_n$(n=0,...,kH*kW-1)都有一个偏移量$\Delta p_n$和一个调制因子$m_n$。我们首先在位置$p_0 + p_n + \Delta p_n$处采样(其中$p_n$是卷积核内部的规则位置,比如3x3卷积中,$p_n$可以是(-1,-1), (-1,0)等),然后乘以$m_n$,再乘以权重$W_n$(卷积核的第n个权重),最后求和。 因此,我们可以将整个操作拆解为: 1. 生成一个标准网格,该网格覆盖整个特征图,并扩展为卷积核大小的网格。 2. 将偏移量加到标准网格上,得到实际采样位置。 3. 使用双线性插值采样输入特征图,得到每个卷积核位置的特征值。 4. 将采样的特征值与调制因子相乘,然后与卷积核权重进行点积(即每个位置相当于一个向量点积,向量的长度是输入通道数)。 但是,由于我们无法直接使用标准的卷积函数(因为每个采样点位置都是变化的),我们需要自己实现一个高效的聚合操作。然而,在PyTorch中,我们可以通过以下方式实现: 步骤: a. 将输入特征图x展开为$(N, C, H, W)$ b. 根据offset和mask,生成一个采样后的特征图,其形状为$(N, C, kH \times kW, H, W)$,即每个卷积核位置都有一张特征图。 c. 将调制因子mask(经过sigmoid)调整为$(N, 1, kH \times kW, H, W)$,然后与采样特征图相乘,得到调制后的特征图,形状为$(N, C, kH \times kW, H, W)$。 d. 将卷积核权重reshape为$(out\_channels, in\_channels, kH \times kW, 1, 1)$。 e. 使用矩阵乘法或卷积操作将调制后的特征图与卷积核权重进行聚合,得到输出特征图。 具体操作如下: 1. 生成标准网格: 首先,我们生成一个网格,其坐标范围归一化到[-1,1](因为F.grid_sample要求输入网格在[-1,1]之间)。 对于输入特征图的高H和宽W,我们生成一个网格: y = torch.linspace(-1, 1, H) x = torch.linspace(-1, 1, W) grid_y, grid_x = torch.meshgrid(y, x) # 得到网格,形状都是(H, W) 然后,我们将其扩展为每个卷积核位置都有对应的网格。卷积核的位置是相对于中心点的偏移,例如3x3卷积核,其偏移位置为: offsets_kernel = torch.tensor([[-1,-1], [-1,0], [-1,1], [0,-1], [0,0], [0,1], [1,-1], [1,0], [1,1]]) 注意:这个偏移需要根据步长、膨胀等进行缩放。但是,在双线性插值采样时,我们使用的坐标是归一化坐标,所以我们需要将实际偏移量转换为归一化偏移量。 归一化偏移量 = 实际偏移量 / (输入特征图大小) * 2 因为归一化坐标中,从-1到1对应整个特征图的宽度(或高度),所以每个像素的归一化偏移量是2/H(高度方向)和2/W(宽度方向)。 但是,注意:我们的偏移量offset已经是在像素单位的偏移,所以我们需要将其转换为归一化坐标的偏移量: offset_y = offset[:, 0::2, :, :] / (H - 1) * 2 # 注意:除以H-1是因为网格从0到H-1,归一化到[-1,1]的映射是2/(H-1)每像素? 实际上,归一化坐标中,相邻像素的间隔是2/(H-1)(高度方向)和2/(W-1)(宽度方向)。但通常我们使用align_corners=True时,网格的角点像素坐标为-1和1。 然而,在mmcv中,偏移量的单位是像素,所以我们在采样时,需要将像素偏移转换为归一化偏移。 2. 构建采样网格: 对于每个输出位置$(i,j)$(对应输入特征图的位置,注意输出位置和输入位置的关系由卷积参数决定,但这里我们是在输入特征图上采样,所以输出特征图大小和输入特征图大小不一定相同?实际上,在可变形卷积中,偏移量是在输入特征图上定义的,并且输出特征图的大小由输入大小和卷积参数决定。但注意:在mmcv中,offset和mask的大小是和输出特征图大小相同的,因为卷积操作会改变大小。然而,在mmcv的实现中,offset和mask的大小是输入特征图大小除以stride(即输出特征图的大小)?实际上,在mmcv的ModulatedDeformConv2d中,offset和mask的尺寸是:$(N, c, H_{out}, W_{out})$,其中c=3*kH*kW(因为offset有2*kH*kW个通道,mask有kH*kW个通道,所以一共3*kH*kW)。因此,我们的输入x的大小是(N,C,H_in,W_in),输出特征图大小是(N,out_channels,H_out,W_out)。 所以,我们的采样网格应该是对应输出特征图上的每个位置,在输入特征图上采样。因此,我们需要为每个输出位置生成一个采样点(每个卷积核有kH*kW个采样点)。 步骤: a. 计算输出特征图的大小:$H_{out} = (H_{in} + 2 \times padding[0] - dilation[0] \times (kernel\_size[0]-1)-1) // stride[0] + 1$,同理计算$W_{out}$。 b. 生成输出特征图网格(归一化坐标): grid_y, grid_x = 从-1到1,尺寸为(H_out, W_out)的网格。 c. 将这个网格扩展为每个卷积核位置:即每个位置有kH*kW个点,所以网格扩展为:(H_out, W_out, kH*kW, 2) -> (H_out, W_out, kH*kW, 2) -> 然后调整维度为(1, H_out, W_out, kH*kW, 2) d. 然后,将卷积核内部的规则偏移(已经归一化)加上从offset参数中取出的偏移量(转换为归一化偏移)。注意:规则偏移需要根据膨胀和步长进行调整?实际上,在可变形卷积中,规则偏移是相对于中心点的位置,然后乘以膨胀系数,再除以步长?不对,因为我们的采样是在输入特征图上进行的,所以规则偏移应该是相对于当前输出位置对应的输入特征图上的中心位置,然后加上偏移量。 但是,由于我们是在输入特征图上采样,所以每个输出位置$p_0$对应的输入特征图上的中心位置为: p = p_0 * stride + padding - 0.5 ??? 这里需要仔细考虑。 实际上,在标准卷积中,输出位置$(i,j)$对应的输入特征图上的中心位置为: center_x = j * stride[1] - padding[1] + (kW-1)/2 * dilation[1] ??? 这并不直接用于网格生成。 在双线性插值中,我们使用归一化坐标,所以我们需要构建一个网格,使得输出位置$(i,j)$对应的输入特征图上的采样点为: p = p_0 + p_n * dilation + offset_{p_n} 其中,p_0是输出位置对应的输入特征图上的左上角位置(考虑padding和stride)?实际上,我们通常使用网格生成函数来生成每个输出位置对应的输入特征图上的坐标。 为了避免混淆,我们可以参考F.grid_sample的用法:我们为输出特征图的每个位置生成一个归一化坐标,这个坐标直接指向输入特征图上的位置。 因此,我们需要构建一个网格,其形状为(N, H_out, W_out, kH*kW, 2),其中每个点是一个二维向量(x,y),表示在输入特征图上的归一化坐标。 具体构建方法: 首先,我们计算输出特征图的大小H_out, W_out。 然后,我们生成一个基础网格,对应输出特征图的每个位置,这个基础网格是每个位置的中心在输入特征图上的归一化坐标。注意:这个基础网格还没有考虑卷积核内部的偏移。 基础网格的生成(没有偏移): base_grid = torch.zeros((1, H_out, W_out, 2), device=x.device) # 最后一个维度是(x,y) # 生成坐标 for i in range(H_out): for j in range(W_out): # 计算输入特征图上的位置(中心位置) # 在标准卷积中,输出位置(i,j)对应的输入特征图上的中心位置为: # x = (j * stride[1] + padding[1]) # 注意:这里没有减去0.5?因为卷积核中心对齐 # 但是,归一化坐标需要转换: # normalized_x = (x * 2.0 / (W_in - 1)) - 1 # 但是,我们还要加上卷积核内部的偏移,这个偏移是相对于中心位置的。 然而,我们可以用更高效的方式生成基础网格: base_x = torch.linspace(-1, 1, W_out, device=x.device) base_y = torch.linspace(-1, 1, H_out, device=x.device) base_grid_x, base_grid_y = torch.meshgrid(base_x, base_y) # 注意:这里meshgrid的indexing默认是'ij',但我们需要'xy'?在PyTorch中,meshgrid的indexing是'ij'(即第一个参数是行,第二个是列),所以我们需要转置? base_grid = torch.stack((base_grid_x, base_grid_y), dim=-1) # (H_out, W_out, 2) 但是,这个基础网格对应的是输出位置在输入特征图上的中心位置吗?实际上,这个基础网格覆盖了整个输入特征图,每个输出位置对应一个点。而我们需要的是每个输出位置的每个卷积核采样点的位置。 现在,我们需要为每个输出位置添加卷积核内部的规则偏移(即没有学习偏移时,标准卷积的采样位置)。规则偏移在归一化坐标中如何表示? 规则偏移(以3x3卷积为例): 在输入特征图上,相对于中心位置的偏移为:(-dilation[1], -dilation[0]), (0,0), (dilation[1], dilation[0])等,注意膨胀系数。 归一化偏移量 = (规则偏移量) * (2 / (输入特征图大小-1))? 不对,因为归一化坐标的整个宽度是2(从-1到1),所以每个像素的宽度是2/(W_in-1),高度同理。 因此,规则偏移的归一化坐标偏移量: offset_x = (规则偏移的x方向) * (2.0 / (W_in - 1)) offset_y = (规则偏移的y方向) * (2.0 / (H_in - 1)) 但是,注意:规则偏移的x方向包括:从中心位置开始,向左为负,向右为正。例如,3x3卷积核的左上角点:x方向偏移为:-dilation[1] * (kW-1)//2 ? 不对,每个点的偏移是固定的,例如: p_n = [ (-1,-1), (-1,0), (-1,1), (0,-1), (0,0), (0,1), (1,-1), (1,0), (1,1) ] 然后乘以膨胀系数:p_n * dilation(注意:dilation是一个元组,分别对应高度和宽度方向,通常膨胀系数在高度和宽度上相同,但这里我们分开处理)。 因此,规则偏移量(未归一化)为: (dilation[1] * p_n_x, dilation[0] * p_n_y) 归一化后: norm_offset_x = dilation[1] * p_n_x * (2.0 / (W_in - 1)) norm_offset_y = dilation[0] * p_n_y * (2.0 / (H_in - 1)) 然后,我们将这个规则偏移加到基础网格上,得到初始的采样网格(没有学习偏移的网格)。 接着,再加上学习到的偏移量(注意:偏移量offset是从网络中学习得到的,其形状为(N, 2*kH*kW, H_out, W_out))。我们需要将offset转换为归一化坐标的偏移量: offset_norm_x = offset[:, 0::2, :, :] * (2.0 / (W_in - 1)) offset_norm_y = offset[:, 1::2, :, :] * (2.0 / (H_in - 1)) 注意:offset的通道排列是[x1,x2,...,xk, y1,y2,...,yk]吗?实际上,在mmcv中,offset的通道排列是[y1, x1, y2, x2, ...]?或者[x1,y1,x2,y2,...]?根据mmcv的文档,偏移量的通道顺序是[offset_y, offset_x]交替出现?我们需要查看mmcv的文档。 在mmcv的modulated_deform_conv2d函数中,offset的通道数为2*kH*kW,其中前kH*kW个通道是y方向的偏移,后kH*kW个通道是x方向的偏移?还是交替的?实际上,在mmcv中,偏移量的存储顺序是:第一个通道是y1,第二个通道是x1,第三个通道是y2,第四个通道是x2,...,所以是交替存储,且先y后x。 因此,我们取offset时: offset_y = offset[:, 0:2*kH*kW:2, :, :] # 取所有奇数索引(0,2,4,...)作为y偏移 offset_x = offset[:, 1:2*kH*kW:2, :, :] # 取所有偶数索引(1,3,5,...)作为x偏移 但是,这样取的话,我们得到kH*kW个通道的y偏移和kH*kW个通道的x偏移。然后,我们将它们分别乘以归一化因子(2/(H_in-1)和2/(W_in-1))?注意:y偏移应该乘以2/(H_in-1),x偏移乘以2/(W_in-1)。 然后,将归一化后的偏移量加到规则网格上。 3. 构建完整的采样网格: grid = base_grid (形状: (1, H_out, W_out, 1, 2)) + 规则偏移(归一化后)(形状: (1, 1, 1, kH*kW, 2)) + 学习偏移(归一化后)(形状: (N, 1, H_out, W_out, kH*kW, 2) -> 调整形状为(N, H_out, W_out, kH*kW, 2)) 注意:我们需要调整维度以便广播相加。 4. 使用F.grid_sample进行采样: 但是,F.grid_sample要求输入一个网格,其形状为(N, H_out, W_out, kH*kW, 2)?实际上,F.grid_sample的输入网格形状为(N, H, W, 2),其中H和W是输出特征图的空间大小。但是,我们这里每个位置有kH*kW个点,所以我们可以将空间维度和采样点维度合并?即(N, H_out* kH*kW, W_out, 2) 不行,因为grid_sample要求网格的每个位置是一个二维坐标。 另一种方法:我们将采样点维度视为通道维度?但是,grid_sample要求网格的最后一个维度是2,而前面的维度是空间维度。所以我们可以将输出特征图的空间维度(H_out, W_out)和采样点(kH*kW)合并为一个维度,即(H_out * kH*kW, W_out)?这样会破坏空间结构。 因此,我们采用:将输入特征图x复制kH*kW次(在通道维度),然后分别采样每个点,但这样效率低。 实际上,我们可以将网格reshape为(N, H_out * W_out * kH*kW, 1, 2),然后使用F.grid_sample,输入x,输出形状为(N, C, H_out*W_out*kH*kW, 1)。然后再reshape为(N, C, kH*kW, H_out, W_out)。 但是,这样内存占用很大。 另一种高效的方式:使用F.grid_sample支持多通道采样的特性,即我们为每个输出位置生成kH*kW个采样点,然后分别采样。但是,F.grid_sample的网格形状可以是(N, H, W, 2),其中H和W是输出特征图的空间大小,每个位置一个采样点。而我们需要每个位置多个采样点,所以我们可以将采样点维度放在空间维度上?即网格形状为(N, H_out, W_out * kH*kW, 2) 或者 (N, H_out * kH*kW, W_out, 2)?这样会破坏空间连续性,而且无法区分哪些点属于哪个位置。 因此,我们采用分开处理:将每个输出位置视为一个样本,然后使用for循环?效率太低。 考虑到效率,我们使用分组卷积的思想:将每个采样点视为一个独立的特征图,然后使用1x1卷积来聚合。但是,这样无法利用矩阵乘法同时计算所有位置。 实际上,我们可以这样: a. 将输入特征图x通过grid_sample采样得到每个输出位置的每个采样点的值,形成一个形状为(N, C, H_out, W_out, kH, kW)的特征图(注意:这里我们将kH*kW拆分为两个维度,方便后续计算)。 b. 然后,将调制因子mask(经过sigmoid)调整为(N, 1, H_out, W_out, kH, kW),然后与采样特征图相乘,得到调制特征图,形状为(N, C, H_out, W_out, kH, kW)。 c. 然后,将卷积核权重reshape为(out_channels, C, kH, kW),然后执行卷积操作?但这里不是标准卷积,因为我们的特征图已经包含了每个卷积核位置的值,所以实际上我们只需要对kH和kW维度进行求和,然后乘以权重。 具体: out = torch.einsum('nchwkv, ockv -> nohw', modulated_features, weight) 其中,n: batch, c: in_channels, h: H_out, w: W_out, kv: kH*kW, o: out_channels 但是,这样会消耗大量内存,因为中间特征图是六维的。 因此,我们考虑将kH*kW维度与通道维度合并,然后使用1x1卷积(但这里卷积核是三维的,即同时作用于kH和kW维度,但1x1卷积只作用于通道维度,所以我们需要将kH和kW维度视为通道维度的一部分)。 步骤: a. 采样后的特征图形状: (N, C, kH*kW, H_out, W_out) [将kH*kW作为一个维度] b. 调制:乘以mask (N, 1, kH*kW, H_out, W_out) -> (N, C, kH*kW, H_out, W_out) c. 将调制后的特征图reshape为 (N, C * kH*kW, H_out, W_out) d. 将卷积核权重reshape为 (out_channels, C * kH*kW, 1, 1) [相当于一个1x1卷积的权重] e. 然后使用F.conv2d,但这里没有偏置,因为偏置在后面加: out = F.conv2d(reshaped_features, reshaped_weight, bias=None, stride=1, padding=0, groups=1) f. 最后加上偏置(如果存在)。 但是,注意:这里我们实际上将可变形卷积转换为一个1x1卷积,而所有空间信息已经通过采样和调制包含在特征图中。但是,这种转换要求卷积核权重在kH*kW维度上独立,即每个位置都有自己的权重,这正是可变形卷积的权重。 因此,我们可以这样实现。 然而,这种方法需要将kH*kW和C合并,当kH*kW较大时(比如3x3=9,5x5=25),会导致通道数变大,可能增加计算量。 另一种方法:使用矩阵乘法,但保持空间维度: out = (modulated_features.permute(0, 3, 4, 1, 2) @ weight.view(1,1,1, out_channels, C, kH*kW).permute(0,1,2,4,3,5)) 然后求和?这样很复杂。 综合考虑,我们采用1x1卷积的方法,因为实现简单。 具体步骤: 1. 计算输出特征图大小H_out, W_out。 2. 生成基础网格(归一化坐标)对应输出特征图的每个位置(中心位置),形状为(N, H_out, W_out, 2) -> 注意:这里我们不需要为每个卷积核位置生成基础网格,因为基础网格是每个输出位置的中心。 3. 生成规则偏移(归一化)的网格,形状为(1, 1, 1, kH*kW, 2) -> 注意:规则偏移是固定的,与输入无关。 4. 从offset参数中提取偏移量,并转换为归一化偏移量,形状为(N, kH*kW, H_out, W_out, 2) -> 调整维度为(N, H_out, W_out, kH*kW, 2) 5. 计算最终的采样网格:基础网格(扩展为(N, H_out, W_out, 1, 2)) + 规则偏移(扩展为(1,1,1,kH*kW,2)) + 学习偏移(形状为(N, H_out, W_out, kH*kW,2)) -> 最终网格形状为(N, H_out, W_out, kH*kW, 2) 6. 将网格reshape为(N, H_out * W_out * kH*kW, 1, 2) [注意:这里我们将空间维度和采样点维度合并] 7. 使用F.grid_sample对输入特征图x进行采样,得到采样值,形状为(N, C, H_out * W_out * kH*kW, 1) 8. 将采样值reshape为(N, C, kH*kW, H_out, W_out) [先reshape为(N, C, H_out, W_out, kH*kW)再转置为(N, C, kH*kW, H_out, W_out)?或者直接reshape为(N, C, kH*kW, H_out, W_out)?注意:在合并维度时,我们按行优先,即先W_out,再H_out,再采样点。] 9. 调制:将mask(经过sigmoid)reshape为(N, 1, kH*kW, H_out, W_out) -> 与采样特征图相乘 -> 得到调制特征图 (N, C, kH*kW, H_out, W_out) 10. 将调制特征图reshape为(N, C * kH*kW, H_out, W_out) 11. 将卷积核权重reshape为(out_channels, C * kH*kW, 1, 1) [注意:卷积核权重的原始形状是(out_channels, C // groups, kH, kW),这里我们将其视为一个1x1卷积的权重,所以需要将kH和kW维度合并到通道维度?] 但是,注意:卷积核权重原本是(out_channels, in_channels//groups, kH, kW),而我们这里每个采样点对应一个权重,所以我们需要将权重reshape为(out_channels, in_channels//groups * kH*kW, 1, 1)。但是,由于我们前面将特征图reshape为(N, C * kH*kW, H_out, W_out),所以卷积核权重应该为: weight_reshaped = self.weight.view(out_channels, -1, 1, 1) # -1 = in_channels//groups * kH*kW 注意:这里groups参数的处理?在标准卷积中,groups参数表示输入通道分组,我们这里应该保持分组。但是,在可变形卷积中,groups参数通常为1(除非指定分组卷积)。在mmcv中,groups和deform_groups是两个参数。deform_groups表示偏移量的分组,我们这里暂时不考虑,因为我们的实现中,每个通道的偏移量是相同的(即同一个位置的所有通道共享偏移量)。但是,在采样时,我们使用相同的偏移量对所有通道进行采样。所以,我们这里只考虑groups参数。 在分组卷积中,输入通道被分成groups组,每组有自己的卷积核。因此,我们上面的reshape操作需要按组进行。但是,由于我们使用1x1卷积,我们可以将分组卷积视为多个独立的1x1卷积。因此,我们可以将特征图按照通道分组,然后分别卷积。 具体:将特征图reshape后,其通道维度的顺序是:组0的通道0,组0的通道1,...,组0的通道(C//groups-1),然后组0的采样点0,组0的采样点1,...?不对,因为特征图reshape为(N, C * kH*kW, H_out, W_out),其中C是输入通道数(包括所有组)。而卷积核权重reshape为(out_channels, (C//groups) * kH*kW, 1, 1)。所以,我们使用分组卷积,分组数为groups,然后每个分组卷积的输入通道数为(C//groups)*kH*kW,输出通道数为out_channels//groups(注意:out_channels必须是groups的整数倍)。 因此,在步骤11中,我们使用: out = F.conv2d(reshaped_features, weight_reshaped, bias=None, stride=1, padding=0, groups=groups) 但是,注意:我们这里没有考虑可变形卷积中的deform_groups参数。在mmcv中,deform_groups表示偏移量分组,即不同的通道组使用不同的偏移量。但是,在我们的实现中,偏移量和mask是共享的(即同一个空间位置的所有通道共享相同的偏移和mask)。所以,我们只实现了deform_groups=1的情况。如果要支持deform_groups>1,我们需要将输入通道按照deform_groups分组,然后分别采样?这会使实现更复杂。 因此,我们暂时只实现deform_groups=1的情况。 12. 如果存在偏置,加上偏置。 注意:以上步骤中,步骤2到5需要仔细处理坐标转换。 考虑到实现的复杂性,我们可能还需要处理边界条件(grid_sample的padding_mode)和align_corners参数(通常设置为True)。 下面,我们开始编写代码。 由于代码较长,我们分函数实现。 注意:我们假设输入x的尺寸为(N, C, H_in, W_in),偏移量offset的尺寸为(N, 2*kH*kW, H_out, W_out),mask的尺寸为(N, kH*kW, H_out, W_out)。其中,H_out和W_out由输入大小和卷积参数决定。 计算输出特征图大小H_out, W_out的公式: H_out = (H_in + 2 * padding[0] - dilation[0] * (kernel_size[0] - 1) - 1) // stride[0] + 1 W_out = (W_in + 2 * padding[1] - dilation[1] * (kernel_size[1] - 1) - 1) // stride[1] + 1 但是,在mmcv中,offset和mask的空间大小与输出特征图相同,所以我们的输入offset和mask已经具有H_out和W_out。 因此,我们不需要在函数内部计算H_out和W_out,因为offset和mask已经提供了。 但是,为了通用性,我们可以在forward函数中根据输入x的大小和卷积参数计算H_out和W_out,然后检查offset和mask的大小是否符合。 然而,为了简化,我们假设offset和mask的大小是正确的。 步骤: 1. 获取输入x的形状:N, C, H_in, W_in = x.shape 2. 获取卷积核大小:kH, kW = self.kernel_size 3. 获取输出特征图大小:H_out, W_out = offset.shape[2], offset.shape[3] [因为offset的形状为(N, 2*kH*kW, H_out, W_out)] 4. 生成基础网格(归一化坐标): base_grid = torch.empty((1, H_out, W_out, 2), dtype=torch.float, device=x.device) # 生成基础网格的x坐标和y坐标 base_grid_x = (torch.arange(W_out, device=x.device).float() + 0.5) / W_out * 2.0 - 1.0 # 归一化到[-1,1] base_grid_y = (torch.arange(H_out, device=x.device).float() + 0.5) / H_out * 2.0 - 1.0 # 注意:这里我们使用中心对齐,即每个网格的中心坐标。但grid_sample的align_corners=False时,坐标0对应像素中心,所以这样处理。 # 但是,在mmcv中,align_corners=True?我们需要和mmcv保持一致。在mmcv中,默认align_corners=False?我们查看mmcv的代码:在modulated_deform_conv2d中,他们调用的是deform_conv2d,然后调用deform_conv2d_function,其中使用了bilinear_interpolate,而bilinear_interpolate中使用了align_corners=False?所以,我们这里也使用align_corners=False。 因此,我们这样生成基础网格: base_grid_x = (torch.arange(W_out, device=x.device).float() + 0.5) * (2.0 / W_out) - 1.0 base_grid_y = (torch.arange(H_out, device=x.device).float() + 0.5) * (2.0 / H_out) - 1.0 但是,这样生成的基础网格是每个输出位置在输入特征图上的中心位置(归一化坐标),并且没有考虑padding和stride?不对,因为输出位置和输入特征图位置的映射关系由stride和padding决定,而基础网格应该反映这个映射。 实际上,输出位置(i,j)对应的输入特征图上的中心位置为: x_center = (j * stride[1] - padding[1]) + (kW-1)/2 * dilation[1] # 这个公式并不准确,因为膨胀系数的影响,卷积核覆盖的位置会扩大。 但是,我们使用双线性插值采样时,直接使用归一化坐标,而归一化坐标与输入特征图的像素位置对应关系为: normalized_x = (x_pixel + 0.5) * (2.0 / W_in) - 1.0 [align_corners=False] 所以,输出位置(i,j)在输入特征图上的中心位置(像素坐标)为: x_pixel = j * stride[1] - padding[1] + (kW-1)/2 * dilation[1] [注意:这里假设卷积核中心在(kW-1)/2处,但膨胀后,中心位置是(kW-1)*dilation[1]/2] 然后转换为归一化坐标: normalized_x = (x_pixel + 0.5) * (2.0 / W_in) - 1.0 但是,我们也可以不计算像素坐标,而是通过缩放和平移得到: normalized_x = (j * stride[1] - padding[1] + (kW-1)/2 * dilation[1] + 0.5) * (2.0 / W_in) - 1.0 然而,在可变形卷积中,我们还要加上规则偏移和学习偏移。 因此,基础网格的每个点(j,i)的坐标为: base_grid[i, j, 0] = (j * stride[1] - padding[1] + (kW-1)/2 * dilation[1] + 0.5) * (2.0 / W_in) - 1.0 base_grid[i, j, 1] = (i * stride[0] - padding[0] + (kH-1)/2 * dilation[0] + 0.5) * (2.0 / H_in) - 1.0 注意:这里i对应高度(行),j对应宽度(列)。 但是,我们也可以先生成一个网格,然后通过仿射变换得到基础网格。但这里我们直接计算。 5. 生成规则偏移(归一化): # 生成卷积核的偏移 kh_range = torch.arange(kH, device=x.device).float() kw_range = torch.arange(kW, device=x.device).float() kernel_offset_y = kh_range - (kH - 1) / 2.0 # 中心为0 kernel_offset_x = kw_range - (kW - 1) / 2.0 # 乘以膨胀系数 kernel_offset_y = kernel_offset_y * self.dilation[0] kernel_offset_x = kernel_offset_x * self.dilation[1] # 生成网格 kernel_offset_y, kernel_offset_x = torch.meshgrid(kernel_offset_y, kernel_offset_x, indexing='ij') # (kH, kW) kernel_offset = torch.stack((kernel_offset_x, kernel_offset_y), dim=-1) # (kH, kW, 2) kernel_offset = kernel_offset.reshape(-1, 2) # (kH*kW, 2) # 归一化规则偏移:将像素偏移转换为归一化坐标偏移 kernel_offset_normalized = kernel_offset * torch.tensor([2.0 / (W_in - 1), 2.0 / (H_in - 1)], device=x.device).view(1, 2) # 注意:这里我们使用align_corners=True?因为规则偏移是连续的,而双线性插值在align_corners=True时,坐标-1和1对应角点像素的中心。但是,在mmcv中,双线性插值函数(bilinear_interpolate)并没有使用align_corners,而是使用像素中心。所以,我们这里使用align_corners=False,因此归一化因子应该是2.0/W_in(宽度方向)?不对,归一化坐标的间隔是2.0/(W_in-1)(当align_corners=True时)或2.0/W_in(当align_corners=False时)?我们查看PyTorch的文档:当align_corners=False时,像素坐标与归一化坐标的关系为: # normalized_x = (x_pixel + 0.5) * (2.0 / W_in) - 1.0 # x_pixel = (normalized_x + 1) * (W_in / 2) - 0.5 # 所以,相邻像素的归一化坐标差为 2.0/W_in。 # 因此,规则偏移的归一化偏移量 = 规则偏移量 * (2.0 / W_in) [宽度方向] 和 (2.0 / H_in) [高度方向]。 # 所以,上面代码应该为: kernel_offset_normalized = kernel_offset * torch.tensor([2.0 / W_in, 2.0 / H_in], device=x.device).view(1, 2) 然后,将kernel_offset_normalized的形状调整为(1, 1, 1, kH*kW, 2) 6. 学习偏移量的归一化: # 从offset中提取x和y偏移 offset_y = offset[:, 0::2, :, :] # (N, kH*kW, H_out, W_out) offset_x = offset[:, 1::2, :, :] # (N, kH*kW, H_out, W_out) # 归一化学习偏移量 offset_x_normalized = offset_x * (2.0 / W_in) offset_y_normalized = offset_y * (2.0 / H_in) # 合并为(N, kH*kW, H_out, W_out, 2) -> (N, H_out, W_out, kH*kW, 2) offset_normalized = torch.stack((offset_x_normalized, offset_y_normalized), dim=-1) # 在最后一个维度上堆叠,得到(N, kH*kW, H_out, W_out, 2) offset_normalized = offset_normalized.permute(0, 3, 4, 1, 2) # (N, H_out, W_out, kH*kW, 2) [permute(0,3,4,1,2) -> 0,3,4,1,2: 原来的维度顺序:0,1,2,3 -> 0(不变), 3(H_out), 4(W_out), 1(kH*kW), 2(2) -> 不对] # 我们重新调整:先将offset_normalized的维度调整为(N, kH*kW, H_out, W_out, 2),然后我们想调整为(N, H_out, W_out, kH*kW, 2) offset_normalized = offset_normalized.permute(0, 2, 3, 1, 4) # 这样:0,2,3,1,4 -> 原始:0,1,2,3,4 -> 0,2,3,1,4 -> (N, H_out, W_out, kH*kW, 2) 7. 构建最终网格: base_grid = base_grid.view(1, H_out, W_out, 1, 2) # 扩展一个维度,用于广播 kernel_offset_normalized = kernel_offset_normalized.view(1, 1, 1, kH*kW, 2) grid = base_grid + kernel_offset_normalized + offset_normalized 8. 将网格reshape为(N, H_out * W_out * kH*kW, 1, 2) [注意:grid_sample要求网格的最后一个维度是2,空间维度是任意,但这里我们合并所有位置和所有采样点] grid = grid.reshape(N, H_out * W_out * kH*kW, 1, 2) 9. 采样输入特征图: # 为了使用F.grid_sample,我们需要将输入特征图x扩展(重复)到每个采样点?不需要,因为grid_sample会处理。 # 但是,我们需要将输入特征图x的尺寸调整为(N, C, H_in, W_in) # 调用grid_sample: sampled = F.grid_sample( x, grid, mode='bilinear', padding_mode='zeros', align_corners=False ) # 输出形状: (N, C, H_out * W_out * kH*kW, 1) sampled = sampled.reshape(N, C, H_out * W_out, kH*kW) # 先reshape为(N, C, H_out*W_out, kH*kW) sampled = sampled.permute(0, 1, 3, 2) # (N, C, kH*kW, H_out*W_out) sampled = sampled.reshape(N, C, kH*kW, H_out, W_out) # (N, C, kH*kW, H_out, W_out) 10. 调制: mask_sigmoid = torch.sigmoid(mask) # (N, kH*kW, H_out, W_out) mask_sigmoid = mask_sigmoid.unsqueeze(1) # (N, 1, kH*kW, H_out, W_out) modulated = sampled * mask_sigmoid # (N, C, kH*kW, H_out, W_out) 11. 聚合(卷积): # 将调制后的特征图reshape为 (N, C * kH*kW, H_out, W_out) modulated = modulated.reshape(N, C * kH*kW, H_out, W_out) # 将卷积核权重reshape为 (out_channels, C * kH*kW // groups, 1, 1) [注意:分组卷积] weight = self.weight # (out_channels, C // groups, kH, kW) weight = weight.reshape(self.out_channels, -1) # (out_channels, (C//groups)*kH*kW) weight = weight.view(self.out_channels, C * kH*kW // self.groups, 1, 1) # 注意:这里要求C * kH*kW // groups是整数,即C必须能被groups整除。 # 进行分组卷积 out = F.conv2d( modulated, weight, bias=None, stride=1, padding=0, groups=self.groups ) # 输出形状: (N, out_channels, H_out, W_out) if self.bias is not None: out = out + self.bias.view(1, -1, 1, 1) 12. 返回out 注意:以上实现中,我们没有考虑deform_groups(即偏移量分组),我们假设deform_groups=1。如果要支持deform_groups>1,我们需要将输入通道按照deform_groups分组,然后分别采样,最后合并。这会使代码更复杂,因此我们这里只实现deform_groups=1。 另外,以上实现可能效率不高,因为使用了大量的reshape和grid_sample,并且采样点数量很大。 我们也可以尝试优化,例如使用更高效的采样方式,但考虑到纯PyTorch实现的限制,这可能是目前可行的方法。 下面,我们编写完整的代码。 注意:我们假设卷积的stride和padding已经包含在基础网格的计算中。 由于代码较长,我们将其封装在forward函数中。 但是,由于计算基础网格需要输入特征图的大小,所以我们在forward中动态计算。 另外,我们还需要处理dilation参数。 由于实现复杂,我们只实现stride=1, padding=0, dilation=1, groups=1, deform_groups=1的情况,然后扩展。 我们根据上述步骤编写代码,并进行测试。 注意:由于我们使用了F.grid_sample,其梯度计算是自动的,所以可以反向传播。 下面,我们给出完整的类实现。</think># 纯 PyTorch 实现的调制型可变形卷积 (Modulated Deformable Convolution) 下面我将实现一个不依赖 MMCV 的纯 PyTorch 调制型可变形卷积模块,其功能与 `mmcv.ops.ModulatedDeformConv2d` 类似。这个实现使用 PyTorch 基础算子,并遵循可变形卷积 v2 (DCNv2) 的设计原理[^1][^2]。 ```python import math import torch import torch.nn as nn import torch.nn.functional as F from typing import Union, Tuple def _pair(x: Union[int, Tuple[int, int]]) -> Tuple[int, int]: return (x, x) if isinstance(x, int) else x class ModulatedDeformConv2d(nn.Module): def __init__(self, in_channels: int, out_channels: int, kernel_size: Union[int, Tuple[int, int]], stride: Union[int, Tuple[int, int]] = 1, padding: Union[int, Tuple[int, int]] = 0, dilation: Union[int, Tuple[int, int]] = 1, groups: int = 1, deform_groups: int = 1, bias: bool = True): """ 调制型可变形卷积 (DCNv2) 的纯 PyTorch 实现 参数: in_channels: 输入通道数 out_channels: 输出通道数 kernel_size: 卷积核大小 (int 或 tuple) stride: 步长 (int 或 tuple) padding: 填充 (int 或 tuple) dilation: 膨胀率 (int 或 tuple) groups: 分组卷积数 deform_groups: 可变形分组数 bias: 是否使用偏置 """ super().__init__() self.in_channels = in_channels self.out_channels = out_channels self.kernel_size = _pair(kernel_size) self.stride = _pair(stride) self.padding = _pair(padding) self.dilation = _pair(dilation) self.groups = groups self.deform_groups = deform_groups # 卷积核权重 self.weight = nn.Parameter( torch.Tensor(out_channels, in_channels // groups, *self.kernel_size)) # 偏置项 if bias: self.bias = nn.Parameter(torch.Tensor(out_channels)) else: self.register_parameter('bias', None) self.reset_parameters() def reset_parameters(self): """初始化权重和偏置""" n = self.in_channels for k in self.kernel_size: n *= k stdv = 1. / math.sqrt(n) self.weight.data.uniform_(-stdv, stdv) if self.bias is not None: self.bias.data.zero_() def forward(self, x: torch.Tensor, offset: torch.Tensor, mask: torch.Tensor) -> torch.Tensor: """ 前向传播 参数: x: 输入张量 (N, C, H, W) offset: 偏移量张量 (N, 2*deform_groups*kH*kW, H_out, W_out) mask: 调制掩码张量 (N, deform_groups*kH*kW, H_out, W_out) 返回: 输出张量 (N, out_channels, H_out, W_out) """ # 计算输出特征图尺寸 H_out, W_out = self._output_size(x.size()[2:]) # 生成采样网格 sampling_grid = self._generate_sampling_grid(x, offset, mask, H_out, W_out) # 双线性采样 sampled_features = self._bilinear_sampling(x, sampling_grid) # 调制 (应用sigmoid激活) modulated_features = sampled_features * torch.sigmoid(mask) # 聚合采样点 (等效卷积操作) output = self._aggregate_features(modulated_features, H_out, W_out) return output def _output_size(self, input_size: Tuple[int, int]) -> Tuple[int, int]: """计算输出特征图尺寸""" H_in, W_in = input_size H_out = (H_in + 2 * self.padding[0] - self.dilation[0] * (self.kernel_size[0] - 1) - 1) // self.stride[0] + 1 W_out = (W_in + 2 * self.padding[1] - self.dilation[1] * (self.kernel_size[1] - 1) - 1) // self.stride[1] + 1 return H_out, W_out def _generate_sampling_grid(self, x: torch.Tensor, offset: torch.Tensor, mask: torch.Tensor, H_out: int, W_out: int) -> torch.Tensor: """ 生成采样网格 参数: x: 输入张量 (N, C, H_in, W_in) offset: 偏移量 (N, 2*deform_groups*kH*kW, H_out, W_out) mask: 调制掩码 (N, deform_groups*kH*kW, H_out, W_out) H_out, W_out: 输出尺寸 返回: 采样网格 (N, H_out, W_out, kH*kW, 2) """ N, C, H_in, W_in = x.size() kH, kW = self.kernel_size num_points = kH * kW # 1. 生成基础网格 (输出空间位置) base_y, base_x = torch.meshgrid( torch.arange(0, H_out, device=x.device, dtype=torch.float), torch.arange(0, W_out, device=x.device, dtype=torch.float), indexing='ij' ) # 2. 应用卷积参数 (stride, padding) base_y = base_y * self.stride[0] + self.padding[0] base_x = base_x * self.stride[1] + self.padding[1] # 3. 生成卷积核相对位置网格 kh_offsets = torch.arange(-(kH-1)//2, (kH+1)//2, device=x.device, dtype=torch.float) kw_offsets = torch.arange(-(kW-1)//2, (kW+1)//2, device=x.device, dtype=torch.float) kernel_y, kernel_x = torch.meshgrid(kh_offsets, kw_offsets, indexing='ij') # 应用膨胀率 kernel_y = kernel_y * self.dilation[0] kernel_x = kernel_x * self.dilation[1] # 4. 组合基础位置和卷积核位置 grid_y = base_y.unsqueeze(-1) + kernel_y.reshape(1, 1, num_points) grid_x = base_x.unsqueeze(-1) + kernel_x.reshape(1, 1, num_points) # 5. 添加学习到的偏移量 # 偏移量形状转换: (N, 2*deform_groups*kH*kW, H_out, W_out) -> (N, H_out, W_out, deform_groups, kH*kW, 2) offset = offset.view(N, 2 * self.deform_groups, num_points, H_out, W_out) offset = offset.permute(0, 3, 4, 1, 2).contiguous() offset = offset.view(N, H_out, W_out, self.deform_groups, num_points, 2) # 扩展偏移量以匹配输入通道 channels_per_group = C // self.deform_groups offset = offset.repeat_interleave(channels_per_group, dim=3) # 添加偏移量 grid_y = grid_y.unsqueeze(0) + offset[..., 0] grid_x = grid_x.unsqueeze(0) + offset[..., 1] # 6. 归一化到 [-1, 1] 范围 (F.grid_sample 要求) grid_y = 2.0 * grid_y / (H_in - 1) - 1.0 grid_x = 2.0 * grid_x / (W_in - 1) - 1.0 # 组合网格 grid = torch.stack((grid_x, grid_y), dim=-1) return grid def _bilinear_sampling(self, x: torch.Tensor, grid: torch.Tensor) -> torch.Tensor: """ 双线性采样 参数: x: 输入特征图 (N, C, H_in, W_in) grid: 采样网格 (N, H_out, W_out, kH*kW, 2) 返回: 采样特征 (N, C, kH*kW, H_out, W_out) """ N, C, H_in, W_in = x.size() H_out, W_out, num_points = grid.size(1), grid.size(2), grid.size(3) # 调整网格形状以适应 grid_sample grid = grid.view(N, H_out * W_out * num_points, 1, 2) # 执行双线性采样 sampled = F.grid_sample( x, grid, mode='bilinear', padding_mode='zeros', align_corners=True ) # 重塑为 (N, C, num_points, H_out, W_out) sampled = sampled.view(N, C, H_out, W_out, num_points) sampled = sampled.permute(0, 1, 4, 2, 3) return sampled def _aggregate_features(self, features: torch.Tensor, H_out: int, W_out: int) -> torch.Tensor: """ 聚合调制后的特征 (等效卷积操作) 参数: features: 调制特征 (N, C, kH*kW, H_out, W_out) H_out, W_out: 输出尺寸 返回: 输出特征图 (N, out_channels, H_out, W_out) """ N, C, num_points, H_out, W_out = features.size() # 将特征重塑为 (N, C * kH*kW, H_out, W_out) features = features.reshape(N, C * num_points, H_out, W_out) # 将权重重塑为 (out_channels, C * kH*kW // groups, 1, 1) weight = self.weight.view( self.out_channels, C * num_points // self.groups, *self.kernel_size ) weight = weight.permute(0, 1, 2, 3).contiguous() weight = weight.view( self.out_channels, C * num_points // self.groups, 1, 1 ) # 执行分组卷积 (等效特征聚合) output = F.conv2d( features, weight, bias=None, stride=1, padding=0, groups=self.groups ) # 添加偏置 if self.bias is not None: output = output + self.bias.view(1, -1, 1, 1) return output ``` ## 实现原理与关键步骤 ### 1. 采样网格生成 可变形卷积的核心是动态生成采样网格: $$p_k = p_0 + p_k^{\text{base}} + \Delta p_k$$ 其中: - $p_0$ 是输出位置对应的输入位置 - $p_k^{\text{base}}$ 是卷积核的标准位置 - $\Delta p_k$ 是从网络学习到的偏移量 ### 2. 双线性采样 使用 `F.grid_sample` 实现可微分的双线性插值: $$\hat{x}(p) = \sum_q x(q) \cdot \max(0, 1-|p_x - q_x|) \cdot \max(0, 1-|p_y - q_y|)$$ 其中 $q$ 遍历特征图上所有位置[^1]。 ### 3. 特征调制 应用 sigmoid 激活函数作为调制因子: $$m_k = \sigma(\hat{m}_k) \in [0, 1]$$ 调制后的特征为: $$\tilde{x}(p_k) = x(p_k) \cdot m_k$$ ### 4. 特征聚合 将调制后的特征重塑后使用分组卷积实现高效聚合: $$y(p_0) = \sum_{k=1}^{K} w_k \cdot \tilde{x}(p_k) + b$$ ## 性能优化技巧 1. **内存优化**:通过视图(view)和维度变换减少中间张量创建 2. **向量化计算**:使用张量运算代替循环 3. **分组处理**:支持 `groups` 和 `deform_groups` 参数提升并行性 4. **归一化处理**:采样网格归一化到 $[-1, 1]$ 范围以兼容 `F.grid_sample` ## 使用示例 ```python # 创建输入 x = torch.randn(2, 64, 32, 32) # (N, C, H, W) offset = torch.randn(2, 18, 30, 30) # 2 * deform_groups * kH * kW mask = torch.randn(2, 9, 30, 30) # deform_groups * kH * kW # 创建可变形卷积层 conv = ModulatedDeformConv2d( in_channels=64, out_channels=128, kernel_size=3, stride=1, padding=1, deform_groups=1 ) # 前向传播 output = conv(x, offset, mask) print(output.shape) # torch.Size([2, 128, 30, 30]) ``` ## 相关主题
阅读全文

相关推荐

自定义实现 ModulatedDeformConv2d,去除对 mmcv.ops.modulated_deform_conv2d 的依赖。用 PyTorch 的基础算子实现“调制型可变形卷积”(参考论文《Deformable ConvNets v2》)。使用纯 PyTorch 的实现思路和代码(支持 autograd,兼容 TorchScript) 可以参考mmcv.ops.ModulatedDeformConv2d类: class ModulatedDeformConv2d(nn.Module): @deprecated_api_warning({'deformable_groups': 'deform_groups'}, cls_name='ModulatedDeformConv2d') def __init__(self, in_channels: int, out_channels: int, kernel_size: Union[int, Tuple[int]], stride: int = 1, padding: int = 0, dilation: int = 1, groups: int = 1, deform_groups: int = 1, bias: Union[bool, str] = True): super().__init__() self.in_channels = in_channels self.out_channels = out_channels self.kernel_size = _pair(kernel_size) self.stride = _pair(stride) self.padding = _pair(padding) self.dilation = _pair(dilation) self.groups = groups self.deform_groups = deform_groups # enable compatibility with nn.Conv2d self.transposed = False self.output_padding = _single(0) self.weight = nn.Parameter( torch.Tensor(out_channels, in_channels // groups, *self.kernel_size)) if bias: self.bias = nn.Parameter(torch.Tensor(out_channels)) else: self.register_parameter('bias', None) self.init_weights() def init_weights(self): n = self.in_channels for k in self.kernel_size: n *= k stdv = 1. / math.sqrt(n) self.weight.data.uniform_(-stdv, stdv) if self.bias is not None: self.bias.data.zero_() def forward(self, x: torch.Tensor, offset: torch.Tensor, mask: torch.Tensor) -> torch.Tensor: return modulated_deform_conv2d(x, offset, mask, self.weight, self.bias, self.stride, self.padding, self.dilation, self.groups, self.deform_groups)

最新推荐

recommend-type

微软解决方案面向服务的架构.doc

微软解决方案面向服务的架构.doc
recommend-type

VC图像编程全面资料及程序汇总

【标题】:"精通VC图像编程资料全览" 【知识点】: VC即Visual C++,是微软公司推出的一个集成开发环境(IDE),专门用于C++语言的开发。VC图像编程涉及到如何在VC++开发环境中处理和操作图像。在VC图像编程中,开发者通常会使用到Windows API中的GDI(图形设备接口)或GDI+来进行图形绘制,以及DirectX中的Direct2D或DirectDraw进行更高级的图形处理。 1. GDI(图形设备接口): - GDI是Windows操作系统提供的一套应用程序接口,它允许应用程序通过设备无关的方式绘制图形。 - 在VC图像编程中,主要使用CDC类(设备上下文类)来调用GDI函数进行绘制,比如绘制线条、填充颜色、显示文本等。 - CDC类提供了很多函数,比如`MoveTo`、`LineTo`、`Rectangle`、`Ellipse`、`Polygon`等,用于绘制基本的图形。 - 对于图像处理,可以使用`StretchBlt`、`BitBlt`、`TransparentBlt`等函数进行图像的位块传输。 2. GDI+: - GDI+是GDI的后继技术,提供了更丰富的图形处理功能。 - GDI+通过使用`Graphics`类来提供图像的绘制、文本的渲染、图像的处理和颜色管理等功能。 - GDI+引入了对矢量图形、渐变色、复杂的文本格式和坐标空间等更高级的图形处理功能。 - `Image`类是GDI+中用于图像操作的基础类,通过它可以进行图像的加载、保存、旋转、缩放等操作。 3. DirectX: - DirectX是微软推出的一系列API集合,用于在Windows平台上进行高性能多媒体编程。 - DirectX中的Direct2D是用于硬件加速的二维图形API,专门用于UI元素和简单的图形渲染。 - DirectDraw主要用于硬件加速的位图操作,比如全屏游戏开发中的画面渲染。 4. 位图操作: - 在VC图像编程中,位图操作是一个重要的部分。需要了解如何加载、保存和处理位图(BMP)文件。 - 可以使用位图文件格式的解析,来访问位图的像素数据,进行像素级别的图像处理和修改。 5. 高级图像处理技术: - 包括图像滤镜、图像转换、图像压缩和解压缩技术。 - 需要掌握一些图像处理算法,比如卷积、FFT(快速傅里叶变换)、DCT(离散余弦变换)等。 - 了解图像的色彩空间转换,比如RGB到YUV的转换,这在视频处理中非常重要。 6. 图像库的使用: - 除了直接使用API进行图像处理之外,还可以使用开源的图像处理库,如OpenCV。 - OpenCV是一个跨平台的计算机视觉和机器学习软件库,它提供了很多高级的图像处理功能。 【压缩包子文件的文件名称列表】: VC++ 文件名称列表显示为"VC++",这表明文件包中可能包含了Visual C++的项目、源代码文件、动态链接库(DLLs)、编译器设置、链接器设置等。如果要使用这些文件进行VC图像编程,需要确保Visual C++开发环境已经安装并且配置好,同时需要安装好所有依赖的库和工具。 要开始VC图像编程,开发者需要具备C++编程基础,熟悉Windows编程概念,并且对图形学有一定的了解。掌握VC图像编程技巧,对于进行桌面应用程序开发、图像处理软件开发以及游戏开发等都是至关重要的。
recommend-type

Pokemmo响应速度翻倍:多线程处理的高级技巧

# 摘要 多线程处理是提高软件并发性能和响应速度的关键技术,本文从基础概念与优势出发,深入探讨了多线程的实现机制,包括线程模型、调度算法、编程关键技术、线程安全性最佳实践、死锁预防与处理等方面。通
recommend-type

人名列表滚动抽奖

<think>嗯,用户想实现一个滚动抽奖功能,需要前端动画效果和随机选择逻辑。首先,我得考虑前端怎么实现滚动效果。可能用CSS动画或者JavaScript的requestAnimationFrame?比如,使用CSS的@keyframes来控制位移,或者用JS动态更新样式。然后,随机选择算法,可能需要确保公平性,比如用Fisher-Yates洗牌算法,或者用Math.random()来生成随机索引。然后,用户可能需要平滑的滚动动画,比如先快速滚动,然后逐渐减速,最后停在选中的人名上。这可能需要设置定时器,逐步改变位置,或者使用CSS过渡效果。另外,还要考虑性能,避免页面卡顿,可能需要使用硬件加
recommend-type

一站式JSF开发环境:即解压即用JAR包

标题:“jsf开发完整JAR包”所指的知识点: 1. JSF全称JavaServer Faces,是Java EE(现EE4J)规范之一,用于简化Java Web应用中基于组件的用户界面构建。JSF提供了一种模型-视图-控制器(MVC)架构的实现,使得开发者可以将业务逻辑与页面表示分离。 2. “开发完整包”意味着这个JAR包包含了JSF开发所需的所有类库和资源文件。通常来说,一个完整的JSF包会包含核心的JSF库,以及一些可选的扩展库,例如PrimeFaces、RichFaces等,这些扩展库提供了额外的用户界面组件。 3. 在一个项目中使用JSF,开发者无需单独添加每个必要的JAR文件到项目的构建路径中。因为打包成一个完整的JAR包后,所有这些依赖都被整合在一起,极大地方便了开发者的部署工作。 4. “解压之后就可以直接导入工程中使用”表明这个JAR包是一个可执行的归档文件,可能是一个EAR包或者一个可直接部署的Java应用包。解压后,开发者只需将其内容导入到他们的IDE(如Eclipse或IntelliJ IDEA)中,或者将其放置在Web应用服务器的正确目录下,就可以立即进行开发。 描述中所指的知识点: 1. “解压之后就可以直接导入工程中使用”说明这个JAR包是预先配置好的,它可能包含了所有必要的配置文件,例如web.xml、faces-config.xml等,这些文件是JSF项目运行所必需的。 2. 直接使用意味着减少了开发者配置环境和处理依赖的时间,有助于提高开发效率。 标签“jsf jar包”所指的知识点: 1. 标签指明了JAR包的内容是专门针对JSF框架的。因此,这个JAR包包含了JSF规范所定义的API以及可能包含的具体实现,比如Mojarra或MyFaces。 2. “jar包”是一种Java平台的归档文件格式,用于聚合多个文件到一个文件中。在JSF开发中,JAR文件经常被用来打包和分发库或应用程序。 文件名称列表“jsf”所指的知识点: 1. “jsf”文件名可能意味着这是JSF开发的核心库,它应该包含了所有核心的JavaServer Faces类文件以及资源文件。 2. 如果是使用特定版本的JSF,例如“jsf-2.2.jar”,则表明文件内包含了对应版本的JSF实现。这种情况下,开发者必须确认他们所使用的Web服务器或应用程序服务器支持该版本的JSF。 3. 文件名称也可能是“jsf-components.jar”、“jsf-impl.jar”等,表明这个JAR包是JSF的一个子模块或特定功能组件。例如,“jsf-components.jar”可能包含了一系列用于在JSF应用中使用的自定义组件。 4. 对于开发者而言,了解文件名称中所蕴含的信息非常重要,因为这将决定他们需要下载哪些JAR包来满足特定项目的需求。 综合以上信息,开发者在使用JSF进行Java Web应用开发时,会通过一个预先配置好的JAR包来快速地搭建和启动项目。这样做不仅简化了项目初始化的过程,也使得开发者能够更加聚焦于业务逻辑的实现和界面设计,而不必深究底层框架配置的细节。
recommend-type

Pokemmo内存优化揭秘:专家教你如何降低50%资源消耗

# 摘要 本文综述了Pokemmo游戏的内存优化方法,从内存管理基础出发,探讨内存使用效率的影响因素,并介绍了性能监控与分析工具。在内存优化实践技巧章节中,详细讨论了代码层面的优化、数据结构和算法选择对内存效率的影响,并通过案例分析展示了实际的优化过程。针对Pokemmo游戏特点,分析了内存消耗特性并提出了特定优化技术。最后,本文展望了未来内存管理技术的发展方向,以及游戏开发中面临的新挑战,为Pokemmo及类似游戏提供了优化建议。 # 关键字 内存优化;内存管理;性能监控;数据结构;算法效率;游戏开发 参考资源链接:[Pokemmo必备资源包:四种ROM与汉化补丁](https://we
recommend-type

直接访问子路由是吧

<think>我们正在使用Vue2,因此需要参考VueRouterv3的文档(因为Vue2对应VueRouterv3,Vue3对应VueRouterv4)。用户的问题是:如何配置路由以支持直接访问子路由?即,在Vue2中,我们希望直接通过URL访问嵌套的子路由(例如:/parent/child),而不仅仅是先访问父路由再导航到子路由。根据之前的回答和引用,我们已经知道:1.在父路由的配置中,使用`children`数组来定义子路由。2.子路由的`path`不能以斜杠开头(例如:'child'而不是'/child'),这样它就会基于父路由的路径进行拼接。3.在父组件的模板中放置`<router-
recommend-type

C++函数库查询辞典使用指南与功能介绍

标题中提到的“C++函数库查询辞典”指的是一个参考工具书或者是一个软件应用,专门用来查询C++编程语言中提供的标准库中的函数。C++是一种静态类型、编译式、通用编程语言,它支持多种编程范式,包括过程化、面向对象和泛型编程。C++标准库是一组包含函数、类、迭代器和模板的库,它为C++程序员提供标准算法和数据结构。 描述中提供的内容并没有给出实际的知识点,只是重复了标题的内容,并且有一串无关的字符“sdfsdfsdffffffffffffffffff”,因此这部分内容无法提供有价值的信息。 标签“C++ 函数库 查询辞典”强调了该工具的用途,即帮助开发者查询C++的标准库函数。它可能包含每个函数的详细说明、语法、使用方法、参数说明以及示例代码等,是学习和开发过程中不可或缺的参考资源。 文件名称“c++函数库查询辞典.exe”表明这是一个可执行程序。在Windows操作系统中,以“.exe”结尾的文件通常是可执行程序。这意味着用户可以通过双击或者命令行工具来运行这个程序,进而使用其中的查询功能查找C++标准库中各类函数的详细信息。 详细知识点如下: 1. C++标准库的组成: C++标准库由多个组件构成,包括输入输出流(iostream)、算法(algorithm)、容器(container)、迭代器(iterator)、字符串处理(string)、数值计算(numeric)、本地化(locale)等。 2. 输入输出流(iostream)库: 提供输入输出操作的基本功能。使用诸如iostream、fstream、sstream等头文件中的类和对象(如cin, cout, cerr等)来实现基本的输入输出操作。 3. 算法(algorithm)库: 包含对容器进行操作的大量模板函数,如排序(sort)、查找(find)、拷贝(copy)等。 4. 容器(container)库: 提供各种数据结构,如向量(vector)、列表(list)、队列(queue)、映射(map)等。 5. 迭代器(iterator): 迭代器提供了一种方法来访问容器中的元素,同时隐藏了容器的内部结构。 6. 字符串处理(string)库: C++标准库中的字符串类提供了丰富的功能用于处理字符串。 7. 数值计算(numeric)库: 提供数值计算所需的函数和类,比如对复数的支持和数值算法。 8. 本地化(locale)库: 提供本地化相关的功能,比如日期、时间的格式化显示以及字符的本地化比较。 9. 错误处理和异常: C++通过throw、try、catch关键字和标准异常类提供了一套异常处理机制。 10. 智能指针: C++11及其后续版本提供了智能指针(如unique_ptr、shared_ptr、weak_ptr)来自动管理动态分配的内存。 11. lambda表达式: 在C++11中引入,允许临时创建匿名函数对象。 12. C++11新特性: 包括范围for循环、移动语义、类内初始化器、auto类型推导等。 使用C++函数库查询辞典的用户可能需要对C++的基础知识有一定的掌握,例如变量、数据类型、控制结构、函数以及面向对象的概念等。了解C++标准库的结构和内容能够帮助程序员有效地利用库函数进行软件开发,提高编程效率并减少重复造轮子的工作。 总结来说,一个C++函数库查询辞典工具对于C++程序员来说是一个非常有用的资源,它能够提供快速查找标准库函数的能力,帮助程序员更高效地解决问题和进行学习。同时,随着C++标准的不断更新,例如C++11、C++14、C++17和C++20,函数库查询辞典也会不断地更新以包含新的特性,这对于紧跟技术发展的开发者来说尤为重要。
recommend-type

【bat脚本安全最佳实践】:保护你的系统与脚本安全的黄金法则

# 摘要 本文旨在全面阐述BAT脚本的基础知识、安全编写原则、审查与优化方法以及在企业环境中的安全应用。通过深入分析脚本安全基础、常见安全陷阱及脚本的权限管理,文章提出了安全编写的具体实践和预防措施。本文详细介绍了脚本安全审查流程、代码优化、错误处理和安全更新维护策略。在企业应用方面,探讨了企业安全政策制定、脚本审计和版本控制以及外部威胁的防范措施。通过案例分析,总结了脚本
recommend-type

IIC抽电

<think>首先,用户的问题是:“请问IIC电路供电问题”。这看起来是关于IIC(Inter-IntegratedCircuit)总线的电源供应问题。IIC是一种串行通信总线,常用于微控制器和外设之间的通信。从系统级指令:-所有行内数学表达式必须使用$...$格式。-独立公式必须使用$$...$$格式并单独成段。-使用中文回答。-生成相关问题。-回答中引用的段落末尾自然地添加引用标识。-回答结构清晰,帮助用户逐步解决问题。参考提供的引用:-引用[1]提到IIC总线注意事项,包括热插拔问题和电源干扰。-引用[2]是关于IIC原理的代码片段。-引用[3]讨论实时时钟RTC,提到PCF85063A