mindspore.nn.Conv1d
- class mindspore.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, pad_mode='same', padding=0, dilation=1, group=1, has_bias=False, weight_init=None, bias_init=None, dtype=mstype.float32)[源代码]
一维卷积层。
对输入Tensor计算一维卷积。通常输入的shape为 \((N, C_{in}, L_{in})\) ,其中 \(N\) 为batch size,\(C\) 为通道数,\(L\) 为输入序列的长度。
根据以下公式计算输出:
\[\text{out}(N_i, C_{\text{out}_j}) = \text{bias}(C_{\text{out}_j}) + \sum_{k = 0}^{C_{in} - 1} \text{ccor}({\text{weight}(C_{\text{out}_j}, k), \text{X}(N_i, k)})\]其中, \(bias\) 为输出偏置,\(ccor\) 为 cross-correlation 操作, \(weight\) 为卷积核的值, \(X\) 为输入的特征图。
\(i\) 对应batch数,其范围为 \([0, N-1]\) ,其中 \(N\) 为输入batch。
\(j\) 对应输出通道,其范围为 \([0, C_{out}-1]\) ,其中 \(C_{out}\) 为输出通道数,该值也等于卷积核的个数。
\(k\) 对应输入通道数,其范围为 \([0, C_{in}-1]\) ,其中 \(C_{in}\) 为输入通道数,该值也等于卷积核的通道数。
因此,上面的公式中, \({bias}(C_{\text{out}_j})\) 为第 \(j\) 个输出通道的偏置, \({weight}(C_{\text{out}_j}, k)\) 表示第 \(j\) 个 卷积核在第 \(k\) 个输入通道的卷积核切片, \({X}(N_i, k)\) 为特征图第 \(i\) 个batch第 \(k\) 个输入通道的切片。 卷积核shape为 \((\text{kernel_size})\) ,其中 \(\text{kernel_size}\) 是卷积核的宽度。若考虑到输入输出通道以及group,则完整卷积核的shape为 \((C_{out}, C_{in} / \text{group}, \text{kernel_size})\) , 其中 group 是分组卷积时在通道上分割输入 x 的组数。
想更深入了解卷积层,请参考论文 Gradient Based Learning Applied to Document Recognition 和 ConvNets 。
说明
在Ascend平台上,目前只支持深度卷积场景下的分组卷积运算。也就是说,当 group>1 的场景下,必须要满足 in_channels = out_channels = group 的约束条件。
- 参数:
in_channels (int) - Conv1d层输入Tensor的空间维度。
out_channels (int) - Conv1d层输出Tensor的空间维度。
kernel_size (int) - 指定一维卷积核的宽度。
stride (int,可选) - 一维卷积核的移动步长,默认值:
1
。pad_mode (str,可选) - 指定填充模式,填充值为0。可选值为
"same"
,"valid"
或"pad"
。默认值:"same"
。"same"
:在输入的两端填充,使得当 stride 为1
时,输入和输出的shape一致。待填充的量由算子内部计算,若为偶数,则均匀地填充在四周,若为奇数,多余的填充量将补充在右端。如果设置了此模式, padding 必须为0。"valid"
:不对输入进行填充,返回输出可能的最大长度,不能构成一个完整stride的额外的像素将被丢弃。如果设置了此模式, padding 必须为0。"pad"
:对输入填充指定的量。在这种模式下,填充的量由 padding 参数指定。如果设置此模式, padding 必须大于或等于0。
padding (Union(int, tuple[int], list[int]),可选) - 当 pad_mode 为
"pad"
时,指定在输入 input 的宽度方向上填充的数量。数据类型为int或包含1个int组成的tuple。表示宽度方向的 padding 数量(左右两边均为该值)。值必须大于等于0,默认值:0
。dilation (Union(int, tuple[int]),可选) - 卷积核膨胀尺寸。可以为单个int,或者由一个int组成的tuple。 假设 \(dilation=(d0,)\), 则卷积核在宽度方向间隔 \(d0-1\) 个元素进行采样。取值范围为[1, L]。默认值:
1
。group (int,可选) - 将过滤器拆分为组, in_channels 和 out_channels 必须可被 group 整除。默认值:
1
。has_bias (bool,可选) - Conv1d层是否添加偏置参数。默认值:
False
。weight_init (Union[Tensor, str, Initializer, numbers.Number],可选) - 权重参数的初始化方法。它可以是Tensor,str,Initializer或numbers.Number。当使用str时,可选
"TruncatedNormal"
,"Normal"
,"Uniform"
,"HeUniform"
和"XavierUniform"
分布以及常量"One"
和"Zero"
分布的值,可接受别名"xavier_uniform"
,"he_uniform"
,"ones"
和"zeros"
。上述字符串大小写均可。更多细节请参考 Initializer, 的值。默认值:None
,权重使用"HeUniform"
初始化。bias_init (Union[Tensor, str, Initializer, numbers.Number],可选) - 偏置参数的初始化方法。可以使用的初始化方法与 weight_init 相同。更多细节请参考 Initializer, 的值。默认值:
None
,偏差使用"Uniform"
初始化。dtype (
mindspore.dtype
) - Parameters的dtype。默认值:mstype.float32
。
- 输入:
x (Tensor) - shape为 \((N, C_{in}, L_{in})\) 的Tensor。
- 输出:
Tensor,shape为 \((N, C_{out}, L_{out})\) 。
pad_mode为
"same"
时:\[L_{out} = \left \lceil{\frac{L_{in}}{\text{stride}}} \right \rceil\]pad_mode为
"valid"
时:\[L_{out} = \left \lceil{\frac{L_{in} - \text{dilation} \times (\text{kernel_size} - 1) } {\text{stride}}} \right \rceil\]pad_mode为
"pad"
时:\[L_{out} = \left \lfloor{\frac{L_{in} + 2 \times padding - (\text{kernel_size} - 1) \times \text{dilation} - 1 }{\text{stride}} + 1} \right \rfloor\]- 异常:
TypeError - in_channels 、 out_channels 、 kernel_size 、 stride 、 padding 或 dilation 不是int。
ValueError - in_channels 、 out_channels 、 kernel_size 、 stride 或 dilation 小于1。
ValueError - padding 小于0。
ValueError - pad_mode 不是
"same"
,"valid"
或"pad"
。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> import mindspore >>> from mindspore import Tensor, nn >>> import numpy as np >>> net = nn.Conv1d(120, 240, 4, has_bias=False, weight_init='normal') >>> x = Tensor(np.ones([1, 120, 640]), mindspore.float32) >>> output = net(x).shape >>> print(output) (1, 240, 640)