mindspore.mint.nn.functional.conv2d

mindspore.mint.nn.functional.conv2d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1)[源代码]

对输入Tensor计算二维卷积。通常输入的shape为 (N,Cin,Hin,Win)(Cin,Hin,Win) ,其中 N 为batch size,C 为通道数, H 为特征图的高度,W 为特征图的宽度。

根据以下公式计算输出:

out(Ni,Coutj)=bias(Coutj)+k=0Cin1ccor(weight(Coutj,k),X(Ni,k))

其中, bias 为输出偏置,ccorcross-correlation 操作, weight 为卷积核的值, X 为输入的特征图。

i 对应batch数,其范围为 [0,N1] ,其中 N 为输入batch。

j 对应输出通道,其范围为 [0,Cout1] ,其中 Cout 为输出通道数,该值也等于卷积核的个数。

k 对应输入通道数,其范围为 [0,Cin1] ,其中 Cin 为输入通道数,该值也等于卷积核的通道数。

因此,上面的公式中, bias(Coutj) 为第 j 个输出通道的偏置, weight(Coutj,k) 表示第 j 个卷积核在第 k 个输入通道的卷积核切片, X(Ni,k) 为特征图第 i 个batch第 k 个输入通道的切片。 卷积核shape为 (kernel_size[0],kernel_size[1]) ,其中 kernel_size[0]kernel_size[1] 是卷积核的高度和宽度。若考虑到输入输出通道以及groups,则完整卷积核的shape为 (Cout,Cin/groups,kernel_size[0],kernel_size[1]) , 其中 groups 是分组卷积时在通道上分割输入 x 的组数。

想更深入了解卷积层,请参考论文 Gradient Based Learning Applied to Document Recognition 以及 ConvNets

警告

这是一个实验性API,后续可能修改或删除。

参数:
  • input (Tensor) - shape为 (N,Cin,Hin,Win)(N,Cin,Hin,Win) 的Tensor。

  • weight (Tensor) - shape为 (Cout,Cin/groups,kernel_size[0],kernel_size[1]) ,则卷积核的大小为 (kernel_size[0],kernel_size[1])

  • bias (Tensor,可选) - 偏置Tensor,shape为 (Cout) 的Tensor。如果 biasNone ,将不会添加偏置。默认值: None

  • stride (Union(int, tuple[int]),可选) - 卷积核移动的步长,数据类型为int,或者由2个int组成的tuple。一个int表示在高度和宽度方向的移动步长均为该值。两个int组成的tuple分别表示在高度和宽度方向的移动步长。默认值: 1

  • padding (Union[int, tuple[int], str],可选) - 输入的高度和宽度方向上填充的数量。数据类型为int或包含2个整数的tuple或string { "valid""same" } 。如果 padding 是一个整数,那么 padding_{H}padding_{W} 都等于 padding 。如果 padding 是一个有2个整数的tuple,那么 padding_{H}padding_{W} 分别等于 padding[0]padding[1] 。值应该要大于等于0。默认值: 0

    • "same":在输入的四周填充,使得当 stride1 时,输入和输出的shape一致。待填充的量由算子内部计算,若为偶数,则均匀地填充在四周,若为奇数,多余的填充量将补充在底部/右侧。若设置该模式,stride 的值必须为1。

    • "valid":不对输入进行填充,返回输出可能的最大高度和宽度,不能构成一个完整stride的额外的像素将被丢弃。

  • dilation (Union(int, tuple[int]),可选) - 卷积核元素间的间隔。数据类型为int或由2个int组成的tuple。若 k>1 ,则卷积核间隔 k 个元素进行采样。垂直和水平方向上的 k ,其取值范围分别为[1, H]和[1, W]。默认值: 1

  • groups (int,可选) - 将过滤器拆分为组。默认值: 1

    • (Cin % groups==0)(Cout % groups==0)(Cout>=groups)(kernel_size[1]=Cin/groups)

返回:

Tensor,卷积后的值。shape为 (N,Cout,Hout,Wout) 。 要了解不同的填充模式如何影响输出shape,请参考 mindspore.mint.nn.Conv2d 以获取更多详细信息。

异常:
  • ValueError - 输入特征图的大小与参数应满足输出公式,以确保输出特征图大小为正,否则会报错。输出公式请参考 mindspore.mint.nn.Conv2d 以获取更多详细信息。

  • RuntimeError - Ascend上受不同型号NPU芯片上L1缓存大小限制,用例尺寸或Kernel Size不能过大。

  • TypeError - 如果 in_channelsout_channels 或者 groups 不是int。

  • TypeError - 如果 kernel_sizestridedilation 既不是int也不是tuple。

  • TypeError - 如果 bias 不是Tensor。

  • ValueError - 如果 bias 的shape不是 (Cout)

  • ValueError - 如果 stridediation 小于1。

  • ValueError - 如果 padding"same"stride 不等于1。

  • ValueError - 输入参数不满足卷积输出公式。

  • ValueError - KernelSize 不能超过输入特征图的大小。

  • ValueError - padding 值不能导致计算区域超出输入大小。

支持平台:

Ascend

样例:

>>> import mindspore
>>> import numpy as np
>>> from mindspore import Tensor, mint, mint
>>> x = Tensor(np.ones([10, 32, 32, 32]), mindspore.float32)
>>> weight = Tensor(np.ones([32, 32, 3, 3]), mindspore.float32)
>>> output = mint.nn.functional.conv2d(x, weight)
>>> print(output.shape)
(10, 32, 30, 30)