mindspore.ops.Conv2D

查看源文件
class mindspore.ops.Conv2D(out_channel, kernel_size, mode=1, pad_mode='valid', pad=0, stride=1, dilation=1, group=1, data_format='NCHW')[源代码]

二维卷积层。

对输入Tensor计算二维卷积,通常输入的shape为 (N,Cin,Hin,Win) ,其中 N 为batch size,C 为通道数, H 为特征图的高度,W 为特征图的宽度。

根据以下公式计算输出:

out(Ni,Coutj)=bias(Coutj)+k=0Cin1ccor(weight(Coutj,k),X(Ni,k))

其中, bias 为输出偏置,ccorcross-correlation 操作, weight 为卷积核的值, X 为输入的特征图。

  • i 对应batch数,其范围为 [0,N1] ,其中 N 为输入batch。

  • j 对应输出通道,其范围为 [0,Cout1] ,其中 Cout 为输出通道数,该值也等于卷积核的个数。

  • k 对应输入通道数,其范围为 [0,Cin1] ,其中 Cin 为输入通道数,该值也等于卷积核的通道数。

因此,上面的公式中, bias(Coutj) 为第 j 个输出通道的偏置, weight(Coutj,k) 表示第 j 个 卷积核在第 k 个输入通道的卷积核切片, X(Ni,k) 为特征图第 i 个batch第 k 个输入通道的切片。 卷积核shape为 (kernel_size[0],kernel_size[1]) ,其中 kernel_size[0]kernel_size[1] 是卷积核的高度和宽度。若考虑到输入输出通道以及group,则完整卷积核的shape为 (Cout,Cin/group,kernel_size[0],kernel_size[1]) , 其中 group 是分组卷积时在通道上分割输入 x 的组数。

想更深入了解卷积层,请参考论文 Gradient Based Learning Applied to Document Recognition

说明

在Ascend平台上,目前只支持深度卷积场景下的分组卷积运算。也就是说,当 group>1 的场景下,必须要满足 in_channels = out_channels = group 的约束条件。

参数:
  • out_channel (int) - 指定输出通道数:Cout

  • kernel_size (Union[int, tuple[int]]) - 指定二维卷积核的高度和宽度。可以为单个int或一个包含2个int组成的元组。单个整数表示该值同时适用于内核的高度和宽度。包含2个整数的元组表示第一个值用于高度,另一个值用于内核的宽度。

  • mode (int,可选) - 指定不同的卷积模式。此值目前未被使用。默认值: 1

  • pad_mode (str,可选) - 指定填充模式,填充值为0。可选值为 "same""valid""pad" 。默认值: "valid"

    • "same":在输入的四周填充,使得当 stride1 时,输入和输出的shape一致。待填充的量由算子内部计算,若为偶数,则均匀地填充在四周,若为奇数,多余的填充量将补充在底部/右侧。如果设置了此模式, pad 必须为0。

    • "valid":不对输入进行填充,返回输出可能的最大高度和宽度,不能构成一个完整stride的额外的像素将被丢弃。如果设置了此模式, pad 必须为0。

    • "pad":对输入填充指定的量。在这种模式下,在输入的高度和宽度方向上填充的量由 pad 参数指定。如果设置此模式, pad 必须大于或等于0。

  • pad (Union(int, tuple[int]),可选) - 指当 pad_mode"pad" 时,指定在输入 x 的高度和宽度方向上填充的数量。可以为单个int或包含四个int组成的tuple。如果 pad 是单个int,那么上、下、左、右的填充量都等于 pad 。如果 pad 是一个由四个int组成的tuple,那么上、下、左、右的填充分别等于 pad[0]pad[1]pad[2]pad[3] 。int值应该要大于或等于0,默认值: 0

  • stride (Union(int, tuple[int]),可选) - 卷积核移动的步长。可以为单个int,或由两个/四个int组成的tuple。单个int表示在高度和宽度方向的移动步长均为该值。两个int组成的tuple分别表示在高度和宽度方向的移动步长。若为四个int,N、C两维度默认为1,H、W两维度分别对应高度和宽度上的步长。默认值: 1

  • dilation (Union(int, tuple[int]),可选) - 卷积核膨胀尺寸。可以为单个int,或者由两个/四个int组成的tuple。单个int表示在高度和宽度方向的膨胀尺寸均为该值。两个int组成的tuple分别表示在高度和宽度方向的膨胀尺寸。若为四个int,N、C两维度int默认为1,H、W两维度分别对应高度和宽度上的膨胀尺寸。 假设 dilation=(d0,d1), 则卷积核在高度方向间隔 d01 个元素进行采样,在宽度方向间隔 d11 个元素进行采样。高度和宽度上取值范围分别为[1, H]和[1, W]。默认值: 1

  • group (int,可选) - 分组卷积时在通道上分割输入 x 的组数。默认值: 1

  • data_format (str,可选) - 数据格式的可选值有 "NHWC""NCHW" 。默认值: "NCHW" 。(目前仅GPU支持NHWC。)

输入:
  • x (Tensor) - 输入Tensor,shape为 (N,Cin,Hin,Win) 或者 (N,Hin,Win,Cin,) ,具体哪种取决于 data_format

  • weight (Tensor) - 卷积核的值,其shape应为 (Cout,Cin/group,kernel_size[0],kernel_size[1])

输出:

Tensor,卷积操作后的值。shape为 (N,Cout,Hout,Wout)(N,Hout,Wout,Cout,) 。 要了解不同的填充模式如何影响输出shape,请参考 mindspore.nn.Conv2d 以获取更多详细信息。

异常:
  • TypeError - kernel_sizestridepaddilation 既不是int也不是tuple。

  • TypeError - out_channelgroup 不是int。

  • ValueError - kernel_sizestridediation 小于1。

  • ValueError - pad_mode 不是”same”、”valid”或”pad”。

  • ValueError - pad 是一个长度不等于4的tuple。

  • ValueError - pad_mode 不等于”pad”,pad 不等于(0, 0, 0, 0)。

  • ValueError - data_format 既不是 "NCHW" ,也不是 "NHWC"

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore
>>> import numpy as np
>>> from mindspore import Tensor, ops
>>> # case 1: All parameters use default values.
>>> x = Tensor(np.ones([10, 32, 32, 32]), mindspore.float32)
>>> weight = Tensor(np.ones([32, 32, 3, 3]), mindspore.float32)
>>> conv2d = ops.Conv2D(out_channel=32, kernel_size=3)
>>> output = conv2d(x, weight)
>>> print(output.shape)
(10, 32, 30, 30)
>>> # case 2: pad_mode="pad", other parameters being default.
>>> x = Tensor(np.ones([10, 32, 32, 32]), mindspore.float32)
>>> weight = Tensor(np.ones([32, 32, 3, 3]), mindspore.float32)
>>> conv2d = ops.Conv2D(out_channel=32, kernel_size=3, pad_mode="pad", pad=(4, 10, 4, 10))
>>> output = conv2d(x, weight)
>>> print(output.shape)
(10, 32, 44, 44)
>>> # case 3: stride=(2, 4), other parameters being default.
>>> x = Tensor(np.ones([10, 32, 32, 32]), mindspore.float32)
>>> weight = Tensor(np.ones([32, 32, 3, 3]), mindspore.float32)
>>> conv2d = ops.Conv2D(out_channel=32, kernel_size=3, stride=(2, 4))
>>> output = conv2d(x, weight)
>>> print(output.shape)
(10, 32, 15, 8)
>>> # case 4: dilation=2, other parameters being default.
>>> x = Tensor(np.ones([10, 32, 32, 32]), mindspore.float32)
>>> weight = Tensor(np.ones([32, 32, 3, 3]), mindspore.float32)
>>> conv2d = ops.Conv2D(out_channel=32, kernel_size=3, dilation=2)
>>> output = conv2d(x, weight)
>>> print(output.shape)
(10, 32, 28, 28)
>>> # case 5: group=2, other parameters being default.
>>> x = Tensor(np.ones([10, 64, 32, 32]), mindspore.float32)
>>> weight = Tensor(np.ones([32, 32, 3, 3]), mindspore.float32)
>>> conv2d = ops.Conv2D(out_channel=32, kernel_size=3, group=2)
>>> output = conv2d(x, weight)
>>> print(output.shape)
(10, 32, 30, 30)
>>> # case 6: All parameters are specified.
>>> x = Tensor(np.ones([10, 64, 32, 32]), mindspore.float32)
>>> weight = Tensor(np.ones([32, 32, 3, 3]), mindspore.float32)
>>> conv2d = ops.Conv2D(out_channel=32, kernel_size=3, pad_mode="pad",
...                     pad=(4, 10, 4, 10), stride=(2, 4), dilation=2,  group=2)
>>> output = conv2d(x, weight)
>>> print(output.shape)
(10, 32, 21, 11)