mindspore.ops.conv1d
- mindspore.ops.conv1d(input, weight, bias=None, stride=1, pad_mode='valid', padding=0, dilation=1, groups=1)[源代码]
对输入Tensor计算一维卷积。通常输入的shape为 \((N, C_{in}, L_{in})\) ,其中 \(N\) 为batch size,\(C\) 为通道数,\(L\) 为输入序列的长度。
根据以下公式计算输出:
\[\text{out}(N_i, C_{\text{out}_j}) = \text{bias}(C_{\text{out}_j}) + \sum_{k = 0}^{C_{in} - 1} \text{ccor}({\text{weight}(C_{\text{out}_j}, k), \text{X}(N_i, k)})\]其中, \(bias\) 为输出偏置,\(ccor\) 为 cross-correlation 操作, \(weight\) 为卷积核的值, \(X\) 为输入的特征图。
\(i\) 对应batch数,其范围为 \([0, N-1]\) ,其中 \(N\) 为输入batch。
\(j\) 对应输出通道,其范围为 \([0, C_{out}-1]\) ,其中 \(C_{out}\) 为输出通道数,该值也等于卷积核的个数。
\(k\) 对应输入通道数,其范围为 \([0, C_{in}-1]\) ,其中 \(C_{in}\) 为输入通道数,该值也等于卷积核的通道数。
因此,上面的公式中, \({bias}(C_{\text{out}_j})\) 为第 \(j\) 个输出通道的偏置, \({weight}(C_{\text{out}_j}, k)\) 表示第 \(j\) 个 卷积核在第 \(k\) 个输入通道的卷积核切片, \({X}(N_i, k)\) 为特征图第 \(i\) 个batch第 \(k\) 个输入通道的切片。 卷积核shape为 \((\text{kernel_size})\) ,其中 \(\text{kernel_size}\) 是卷积核的宽度。若考虑到输入输出通道以及groups,则完整卷积核的shape为 \((C_{out}, C_{in} / \text{groups}, \text{kernel_size})\) , 其中 groups 是分组卷积时在通道上分割输入 x 的组数。
想更深入了解卷积层,请参考论文 Gradient Based Learning Applied to Document Recognition 和 ConvNets 。
说明
在Ascend平台上,目前只支持深度卷积场景下的分组卷积运算。也就是说,当 groups>1 的场景下,必须要满足 \(C_{in}\) = \(C_{out}\) = groups 的约束条件。
- 参数:
input (Tensor) - 输入Tensor,shape为 \((N, C_{in}, L_{in})\)。
weight (Tensor) - 卷积核的值,其shape为 \((C_{out}, C_{in}/ \text{groups}, \text{kernel_size})\) 。
bias (Tensor,可选) - 偏置Tensor,shape为 \((C_{out})\) 的Tensor。如果 bias 是None,将不会添加偏置。默认值:
None
。stride (Union(int, tuple[int]),可选) - 卷积核移动的步长,数据类型为int或1个int组成的tuple。表示在宽度方向的移动步长。默认值:
1
。pad_mode (str,可选) - 指定填充模式。取值为
"same"
,"valid"
,或"pad"
。默认值:"valid"
。"same"
:输出的宽度与输入整除 stride 后的值相同。填充将被均匀地添加到两侧,剩余填充量将被添加到维度末端。若设置该模式,padding 的值必须为0。"valid"
:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 padding 的值必须为0。"pad"
:对输入 input 进行填充。在输入上填充 padding 大小的0。如果设置此模式, padding 必须大于或等于0。
padding (Union(int, tuple[int], list[int]),可选) - 当 pad_mode 为
"pad"
时,指定在输入 input 的宽度方向上填充的数量。数据类型为int或包含1个int组成的tuple。表示宽度方向的 padding 数量(左右两边均为该值)。值必须大于等于0,默认值:0
。dilation (Union(int, tuple[int]),可选) - 卷积核膨胀尺寸。可以为单个int,或者由一个int组成的tuple。 假设 \(dilation=(d0,)\), 则卷积核在宽度方向间隔 \(d0-1\) 个元素进行采样。取值范围为[1, L]。默认值:
1
。groups (int,可选) - 将过滤器拆分为组。默认值:
1
。
- 返回:
Tensor,卷积后的值。shape为 \((N, C_{out}, L_{out})\) 。 要了解不同的填充模式如何影响输出shape,请参考
mindspore.nn.Conv1d
以获取更多详细信息。- 异常:
TypeError - stride 、 padding 或 dilation 既不是int也不是tuple。
TypeError - groups 不是int。
TypeError - bias 不是Tensor。
ValueError - bias 的shape不是 \((C_{out})\) 。
ValueError - stride 或 diation 小于1。
ValueError - pad_mode 不是"same"、"valid"或"pad"。
ValueError - padding 是一个长度不等于1的tuple。
ValueError - pad_mode 不等于"pad"时,padding 大于0。
- 支持平台:
Ascend
GPU
样例:
>>> import mindspore >>> import numpy as np >>> from mindspore import Tensor, ops >>> x = Tensor(np.arange(64).reshape((4, 4, 4)), mindspore.float32) >>> weight = Tensor(np.arange(8).reshape((2, 2, 2)), mindspore.float32) >>> bias = Tensor([-0.12345, 2.7683], mindspore.float32) >>> output = ops.conv1d(x, weight, pad_mode='pad', padding=(1,), bias=bias, groups=2) >>> print(output.shape) (4, 2, 5)