mindspore.ops.conv2d

查看源文件
mindspore.ops.conv2d(input, weight, bias=None, stride=1, pad_mode='valid', padding=0, dilation=1, groups=1)[源代码]

对输入Tensor计算二维卷积。通常输入的shape为 \((N, C_{in}, H_{in}, W_{in})\) ,其中 \(N\) 为batch size,\(C\) 为通道数, \(H\) 为特征图的高度,\(W\) 为特征图的宽度。

根据以下公式计算输出:

\[\text{out}(N_i, C_{\text{out}_j}) = \text{bias}(C_{\text{out}_j}) + \sum_{k = 0}^{C_{in} - 1} \text{ccor}({\text{weight}(C_{\text{out}_j}, k), \text{X}(N_i, k)})\]

其中, \(bias\) 为输出偏置,\(ccor\)cross-correlation 操作, \(weight\) 为卷积核的值, \(X\) 为输入的特征图。

\(i\) 对应batch数,其范围为 \([0, N-1]\) ,其中 \(N\) 为输入batch。

\(j\) 对应输出通道,其范围为 \([0, C_{out}-1]\) ,其中 \(C_{out}\) 为输出通道数,该值也等于卷积核的个数。

\(k\) 对应输入通道数,其范围为 \([0, C_{in}-1]\) ,其中 \(C_{in}\) 为输入通道数,该值也等于卷积核的通道数。

因此,上面的公式中, \({bias}(C_{out_j})\) 为第 \(j\) 个输出通道的偏置, \({weight}(C_{out_j}, k)\) 表示第 \(j\) 个 卷积核在第 \(k\) 个输入通道的卷积核切片, \({X}(N_i, k)\) 为特征图第 \(i\) 个batch第 \(k\) 个输入通道的切片。 卷积核shape为 \((\text{kernel_size[0]},\text{kernel_size[1]})\) ,其中 \(\text{kernel_size[0]}\)\(\text{kernel_size[1]}\) 是卷积核的高度和宽度。若考虑到输入输出通道以及group,则完整卷积核的shape为 \((C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]})\) , 其中 group 是分组卷积时在通道上分割输入 x 的组数。

想更深入了解卷积层,请参考论文 Gradient Based Learning Applied to Document Recognition 以及 ConvNets

说明

在Ascend平台上,目前只支持深度卷积场景下的分组卷积运算。也就是说,当 groups>1 的场景下,必须要满足 \(C_{in}\) = \(C_{out}\) = groups 的约束条件。

参数:
  • input (Tensor) - shape为 \((N, C_{in}, H_{in}, W_{in})\) 的Tensor。

  • weight (Tensor) - shape为 \((C_{out}, C_{in} / \text{groups}, \text{kernel_size[0]}, \text{kernel_size[1]})\) ,则卷积核的大小为 \((\text{kernel_size[0]}, \text{kernel_size[1]})\)

  • bias (Tensor,可选) - 偏置Tensor,shape为 \((C_{out})\) 的Tensor。如果 biasNone ,将不会添加偏置。默认值: None

  • stride (Union(int, tuple[int]),可选) - 卷积核移动的步长,数据类型为int,或者由两个或四个int组成的tuple。一个int表示在高度和宽度方向的移动步长均为该值。两个int组成的tuple分别表示在高度和宽度方向的移动步长。默认值: 1

  • pad_mode (str,可选) - 指定填充模式。取值为 "same""valid" ,或 "pad" 。默认值: "valid"

    • "same":输出的高度和宽度分别与输入整除 stride 后的值相同。填充将被均匀地添加到高和宽的两侧,剩余填充量将被添加到维度末端。若设置该模式,padding 的值必须为0。

    • "valid":在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 padding 的值必须为0。

    • "pad":对输入 input 进行填充。在输入的高度和宽度方向上填充 padding 大小的0。如果设置此模式, padding 必须大于或等于0。

  • padding (Union(int, tuple[int], list[int]),可选) - 输入 input 的高度和宽度方向上填充的数量。数据类型为int或包含2个int组成的tuple。如果 padding 是一个int,那么上、下、左、右的填充都等于 padding 。如果 padding 是一个有2个int组成的tuple,那么上、下的填充为 padding[0] ,左、右的填充为 padding[1] 。值必须大于等于0,默认值: 0

  • dilation (Union(int, tuple[int]),可选) - 卷积核元素间的间隔。数据类型为int或由2个int组成的tuple。若 \(k > 1\) ,则卷积核间隔 k 个元素进行采样。垂直和水平方向上的 k ,其取值范围分别为[1, H]和[1, W]。默认值: 1

  • groups (int,可选) - 将过滤器拆分为组。默认值: 1

返回:

Tensor,卷积后的值。shape为 \((N, C_{out}, H_{out}, W_{out})\) 。 要了解不同的填充模式如何影响输出shape,请参考 mindspore.nn.Conv2d 以获取更多详细信息。

异常:
  • TypeError - stridepaddingdilation 既不是int也不是tuple。

  • TypeError - groups 不是int。

  • TypeError - bias 不是Tensor。

  • ValueError - bias 的shape不是 \((C_{out})\)

  • ValueError - stridediation 小于1。

  • ValueError - pad_mode 不是"same"、"valid"或"pad"。

  • ValueError - padding 是一个长度不等于2的tuple或list。

  • ValueError - pad_mode 不等于"pad"时,padding 大于0。

支持平台:

Ascend GPU

样例:

>>> import mindspore
>>> import numpy as np
>>> from mindspore import Tensor, ops
>>> x = Tensor(np.ones([10, 32, 32, 32]), mindspore.float32)
>>> weight = Tensor(np.ones([32, 32, 3, 3]), mindspore.float32)
>>> output = ops.conv2d(x, weight)
>>> print(output.shape)
(10, 32, 30, 30)