mindspore.mint.nn.functional.conv3d

mindspore.mint.nn.functional.conv3d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1)[源代码]

对输入Tensor计算三维卷积。通常,输入Tensor的shape为 (N,Cin,Din,Hin,Win)(Cin,Din,Hin,Win),其中 N 为batch size,C 为通道数,D,H,W 分别为特征图的深度、高度和宽度。

根据以下公式计算输出:

out(Ni,Coutj)=bias(Coutj)+k=0Cin1ccor(weight(Coutj,k),X(Ni,k))

其中, bias 为输出偏置,ccorcross-correlation 操作, weight 为卷积核的值, X 为输入的特征图。

以下是索引的含义:

  • i 对应batch数,其范围为 [0,N1] ,其中 N 为输入batch。

  • j 对应输出通道,其范围为 [0,Cout1] ,其中 Cout 为输出通道数,该值也等于卷积核的个数。

  • k 对应输入通道数,其范围为 [0,Cin1] ,其中 Cin 为输入通道数,该值也等于卷积核的通道数。

因此,上面的公式中, bias(Coutj) 为第 j 个输出通道的偏置, weight(Coutj,k) 表示第 j 个卷积核在第 k 个输入通道的卷积核切片, X(Ni,k) 为特征图第 i 个batch第 k 个输入通道的切片。

卷积核shape为 (kd,kh,kw) ,其中 kdkhkw 分别是卷积核的深度、高度和宽度。若考虑到输入输出通道以及 groups ,则完整卷积核的shape为 (Cout,Cin/groups,kd,kh,kw) , 其中 groups 是分组卷积时在通道上分割输入 x 的组数。

想更深入了解卷积层,请参考论文 Gradient Based Learning Applied to Document Recognition

以下罗列参数的一些限制条件。

  • input – conv3d的输入. 输入的每个维度大小必须在[1, int32_max]范围内。

  • weight – shape为 (Cout,Cin/groups,kd,kh,kw) 的滤波器。khkw 的值在 [1, 511] 范围内。其余值在 [1, int32_max] 范围内。 并且 khkwk0 必须小于 65536(其中 k0 为 16。如果数据类型是 float32,则 k0 为 8)。

  • bias – 形状为 (Cout) 的偏置张量。其形状必须与权重的第一维相等。

  • stride – 内核移动的步幅。它可以是一个整数或一个元组(表示为 (strided,strideh,stridew) )。 其中,stride_h 和 stride_w 的范围是 [1, 63],stride_d 的范围是 [1, 255]。

  • padding – 如果 padding 是一个整数,则其范围为 [0, 255]。

  • dilation – 该值的范围是 [1, 255]。

  • groups – 该值的范围是 [1, 65535]。

  • Cin%groups==0andCout%groups==0

  • weight[1]==Cin/groups

  • Hin+PadUp+PadDown>=(kh1)DilationH+1

  • Win+PadLeft+PadRight>=(kw1)DilationW+1

  • Din+PadFront+PadBack>=(kd1)DilationD+1

  • Hout=(Hin+PadUp+PadDown((kh1)DilationH+1))/StrideH+1

  • Wout=(Win+PadLeft+PadRight((kw1)DilationW+1))/StrideW+1

  • Dout=(Din+PadFront+PadBack((kd1)DilationD+1))/StrideD+1

  • (Din+PadFront+PadBack((kd1)DilationD+1))%StrideD<=PadBack

  • (Hin+PadUp+PadDown((kh1)Dilationh+1))%StrideH<=PadDown

  • strided<=kerneld

  • PadUp<khPadDown<kh 。当 padding = 'valid' 时, PadUp 和 PadDown 取值是0。 当 padding = 'same' 时, 对于high维度的PadUp能通过 floor(((Hout1)strideH+(kh1)DilationH+1Hin)/2) 计算得到。 用类似的方法能计算得到关于depth和width维度的padding值。且depth和width维度也有相同的约束条件。

  • ((kh1)DilationHPadUp) 取值区间为[0, 255]。深度和宽度维度具有相同的约束。

  • 如果 padding'same'stride 必须为 1。

警告

该API不支持Atlas系列产品。 这是一个实验性API,后续可能修改或删除。

参数:
  • input (Tensor) - shape为 (N,Cin,Din,Hin,Win) 的Tensor。

  • weight (Tensor) - shape为 (Cout,Cin/groups,kd,kh,kw) ,则卷积核的大小为 (kd,kh,kw)

  • bias (Tensor,可选) - 偏置Tensor,shape为 (Cout) 的Tensor。如果 bias 是None,将不会添加偏置。默认值: None

  • stride (Union(int, tuple[int]),可选) - 卷积核移动的步长,可以为单个int或三个int组成的tuple。一个int表示在深度、高度和宽度方向的移动步长均为该值。三个int组成的tuple分别表示在深度、高度和宽度方向的移动步长。默认值: 1

  • padding (Union(int, tuple[int], str),可选) - 输入 x 两侧的隐式填充。可以是字符串、一个整数或包含3个整数的元组/列表。如果 padding 是一个字符串,则可选值为 samevalid

    • "same":采用完成方式。输出的高度和宽度将等于输入 x 除以步幅。填充将尽可能在顶部和底部、左侧和右侧均匀计算。否则,最后一个额外的填充将从底部和右侧计算。如果设置了此模式,则 stride 必须为1。

    • "valid":采用丢弃的方式。输出的可能最大高度和宽度将在没有填充的情况下返回。多余的像素将被丢弃。

    如果 padding 是一个整数,则top、bottom、left和right的padding是相同的,等于padding。 如果 padding 是一个包含3个整数的元组/列表,则head、tail、top、bottom、left和right的填充分别等于pad[0]、pad[0]、pad[1]、pad[1]、pad[2]和pad[2]。默认值: 0

  • dilation (Union[int, tuple[int]],可选) - 控制内核点之间的空间。默认值: 1

  • groups (int,可选) - 将 input 拆分的组数。默认值: 1

返回:

Tensor,dtype与 input 相同,shape为 (N,Cout,Dout,Hout,Wout)(Cout,Dout,Hout,Wout)

异常:
  • TypeError - stridepaddingdilation 既不是int也不是tuple。

  • TypeError - groups 不是int。

  • TypeError - bias 不是Tensor。

支持平台:

Ascend

样例:

>>> import mindspore
>>> import numpy as np
>>> from mindspore import mint
>>> x = mindspore.Tensor(np.random.randn(12, 1, 60, 50, 8), mindspore.float16)
>>> w = mindspore.Tensor(np.random.randn(26, 1, 2, 4, 4), mindspore.float16)
>>> out = mint.nn.functional.conv3d(x, w)
>>> print(out.shape)
(12, 26, 59, 47, 5)