mindspore.mint.nn.functional.conv3d
- mindspore.mint.nn.functional.conv3d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1)[源代码]
对输入Tensor计算三维卷积。通常,输入Tensor的shape为 \((N, C_{in}, D_{in}, H_{in}, W_{in})\) 或 \((C_{in}, D_{in}, H_{in}, W_{in})\),其中 \(N\) 为batch size,\(C\) 为通道数,\(D, H, W\) 分别为特征图的深度、高度和宽度。
根据以下公式计算输出:
\[\text{out}(N_i, C_{\text{out}_j}) = \text{bias}(C_{\text{out}_j}) + \sum_{k = 0}^{C_{in} - 1} \text{ccor}({\text{weight}(C_{\text{out}_j}, k), \text{X}(N_i, k)})\]其中, \(bias\) 为输出偏置,\(ccor\) 为 cross-correlation 操作, \(weight\) 为卷积核的值, \(X\) 为输入的特征图。
\(i\) 对应batch数,其范围为 \([0, N-1]\) ,其中 \(N\) 为输入batch。
\(j\) 对应输出通道,其范围为 \([0, C_{out}-1]\) ,其中 \(C_{out}\) 为输出通道数,该值也等于卷积核的个数。
\(k\) 对应输入通道数,其范围为 \([0, C_{in}-1]\) ,其中 \(C_{in}\) 为输入通道数,该值也等于卷积核的通道数。
因此,上面的公式中, \({bias}(C_{\text{out}_j})\) 为第 \(j\) 个输出通道的偏置, \({weight}(C_{\text{out}_j}, k)\) 表示第 \(j\) 个 卷积核在第 \(k\) 个输入通道的卷积核切片, \({X}(N_i, k)\) 为特征图第 \(i\) 个batch第 \(k\) 个输入通道的切片。
卷积核shape为 \((kd, kh, kw)\) ,其中 \(kd\) 、 \(kh\) 和 \(kw\) 分别是卷积核的深度、高度和宽度。若考虑到输入输出通道以及 groups ,则完整卷积核的shape为 \((C_{out}, C_{in} / \text{groups}, kd, kh, kw)\) , 其中 groups 是分组卷积时在通道上分割输入 x 的组数。
想更深入了解卷积层,请参考论文 Gradient Based Learning Applied to Document Recognition 。
以下罗列参数的一些限制条件。
input – conv3d的输入. 输入的每个维度大小必须在[1, int32_max]范围内。
weight – shape为 \((C_{out}, C_{in} / groups, kd, kh, kw)\) 的滤波器。\(kh\) 和 \(kw\) 的值在 [1, 511] 范围内。其余值在 [1, int32_max] 范围内。 并且 \(kh*kw*k0\) 必须小于 65536(其中 k0 为 16。如果数据类型是 float32,则 k0 为 8)。
bias – 形状为 \((C_{out})\) 的偏置张量。其形状必须与权重的第一维相等。
math:stride – 内核移动的步幅。它可以是一个整数或一个元组(表示为 \((stride_d, stride_h, stride_w)\) )。 其中,stride_h 和 stride_w 的范围是 [1, 63],stride_d 的范围是 [1, 255]。
padding – 如果 padding 是一个整数,则其范围为 [0, 255]。
dilation – 该值的范围是 [1, 255]。
groups – 该值的范围是 [1, 65535]。
属性之间的限制条件:
\(C_{in} % groups == 0 && C_{out} % groups == 0\) 。
\(weight[1] == C_{in} / groups\) 。
\(H_{in} + PadUp + PadDown >= (kh - 1) * DilationH + 1\) 。
\(W_{in} + PadLeft + PadRight >= (kw - 1) * DilationW + 1\) 。
\(D_{in} + PadFront + PadBack >= (kd - 1) * DilationD + 1\) 。
\(H_{out} = (H_{in} + PadUp + PadDown - ((kh - 1) * DilationH + 1)) / StrideH + 1\) 。
\(W_{out} = (W_{in} + PadLeft + PadRight - ((kw - 1) * DilationW + 1)) / StrideW + 1\) 。
\(D_{out} = (D_{in} + PadFront + PadBack - ((kd - 1) * DilationD + 1)) / StrideD + 1\) 。
\((D_{in}+PadFront+PadBack - ((kd-1)*DilationD+1)) % StrideD <= PadBack\) 。
\((H_{in}+PadUp+PadDown - ((kh-1)*Dilationh+1)) % StrideH <= PadDown\) 。
\(stride_d <= kernel_d\) 。
\(pad < kernel\) 。当padding='valid'时, pad 取值是0。 当padding='same'时, 对于high维度的pad能通过 \(floor(((H_{out}-1) * strideH + (kh - 1) * DilationH + 1 - H_{in}) / 2)\) 计算得到。 用类似的方法能计算得到关于depth和width维度的padding值。
\(((kh - 1) * dilation_h - pad_up)\) 取值区间为[0, 255]。深度和宽度维度具有相同的约束。
\(groups == 1 or groups == C_{in}\)。
如果 padding 为
same
, stride 必须为 1。
警告
该API不支持Atlas系列产品。 这是一个实验性API,后续可能修改或删除。
- 参数:
input (Tensor) - shape为 \((N, C_{in}, D_{in}, H_{in}, W_{in})\) 的Tensor。
weight (Tensor) - shape为 \((C_{out}, C_{in} / \text{groups}, kd, kh, kw)\) ,则卷积核的大小为 \((kd, kh, kw)\) 。
bias (Tensor,可选) - 偏置Tensor,shape为 \((C_{out})\) 的Tensor。如果 bias 是None,将不会添加偏置。默认值:
None
。stride (Union[int, tuple[int]],可选) - 卷积核移动的步长,可以为单个int或三个int组成的tuple。一个int表示在深度、高度和宽度方向的移动步长均为该值。三个int组成的tuple分别表示在深度、高度和宽度方向的移动步长。默认值:
1
。padding (Union(int, tuple[int], str),可选) - 输入 x 两侧的隐式填充。可以是字符串、一个整数或包含3个整数的元组/列表。如果 padding 是一个字符串,则可选值为 same 、 valid 。
"same"
:采用完成方式。输出的高度和宽度将等于输入 x 除以步幅。填充将尽可能在顶部和底部、左侧和右侧均匀计算。否则,最后一个额外的填充将从底部和右侧计算。如果设置了此模式,则 stride 必须为1。"valid"
:采用丢弃的方式。输出的可能最大高度和宽度将在没有填充的情况下返回。多余的像素将被丢弃。
如果 padding 是一个整数,则top、bottom、left和right的padding是相同的,等于padding。 如果 padding 是一个包含3个整数的元组/列表,则head、tail、top、bottom、left和right的填充分别等于pad[0]、pad[0]、pad[1]、pad[2]和pad[2]。默认值: 0 。
dilation (Union[int, tuple[int]],可选) - 控制内核点之间的空间。默认值:
1
。groups (int,可选) - 将 input 拆分的组数。默认值:
1
。
- 返回:
Tensor。
- 异常:
TypeError - stride 、 padding 或 dilation 既不是int也不是tuple。
TypeError - groups 不是int。
TypeError - bias 不是Tensor。
- 支持平台:
Ascend