mindspore.nn.Conv1d

查看源文件
class mindspore.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, pad_mode='same', padding=0, dilation=1, group=1, has_bias=False, weight_init=None, bias_init=None, dtype=mstype.float32)[源代码]

一维卷积层。

对输入Tensor计算一维卷积。通常输入的shape为 (N,Cin,Lin) ,其中 N 为batch size,C 为通道数,L 为输入序列的长度。

根据以下公式计算输出:

out(Ni,Coutj)=bias(Coutj)+k=0Cin1ccor(weight(Coutj,k),X(Ni,k))

其中, bias 为输出偏置,ccorcross-correlation 操作, weight 为卷积核的值, X 为输入的特征图。

  • i 对应batch数,其范围为 [0,N1] ,其中 N 为输入batch。

  • j 对应输出通道,其范围为 [0,Cout1] ,其中 Cout 为输出通道数,该值也等于卷积核的个数。

  • k 对应输入通道数,其范围为 [0,Cin1] ,其中 Cin 为输入通道数,该值也等于卷积核的通道数。

因此,上面的公式中, bias(Coutj) 为第 j 个输出通道的偏置, weight(Coutj,k) 表示第 j 个卷积核在第 k 个输入通道的卷积核切片, X(Ni,k) 为特征图第 i 个batch第 k 个输入通道的切片。 卷积核shape为 (kernel_size) ,其中 kernel_size 是卷积核的宽度。若考虑到输入输出通道以及group,则完整卷积核的shape为 (Cout,Cin/group,kernel_size) , 其中 group 是分组卷积时在通道上分割输入 x 的组数。

想更深入了解卷积层,请参考论文 Gradient Based Learning Applied to Document RecognitionConvNets

说明

在Ascend平台上,目前只支持深度卷积场景下的分组卷积运算。也就是说,当 group>1 的场景下,必须要满足 in_channels = out_channels = group 的约束条件。

参数:
  • in_channels (int) - Conv1d层输入Tensor的空间维度。

  • out_channels (int) - Conv1d层输出Tensor的空间维度。

  • kernel_size (int) - 指定一维卷积核的宽度。

  • stride (int,可选) - 一维卷积核的移动步长,默认值: 1

  • pad_mode (str,可选) - 指定填充模式,填充值为0。可选值为 "same""valid""pad" 。默认值: "same"

    • "same":在输入的两端填充,使得当 stride1 时,输入和输出的shape一致。待填充的量由算子内部计算,若为偶数,则均匀地填充在四周,若为奇数,多余的填充量将补充在右端。如果设置了此模式, padding 必须为0。

    • "valid":不对输入进行填充,返回输出可能的最大长度,如果不能构成一个完整stride,那么额外的像素将被丢弃。如果设置了此模式, padding 必须为0。

    • "pad":对输入填充指定的量。在这种模式下,填充的量由 padding 参数指定。如果设置此模式, padding 必须大于或等于0。

  • padding (Union(int, tuple[int], list[int]),可选) - 当 pad_mode"pad" 时,指定在输入 input 的宽度方向上填充的数量。数据类型为int或包含1个int组成的tuple。表示宽度方向的 padding 数量(左右两边均为该值)。值必须大于等于0,默认值: 0

  • dilation (Union(int, tuple[int]),可选) - 卷积核膨胀尺寸。可以为单个int,或者由一个int组成的tuple。 假设 dilation=(d0,), 则卷积核在宽度方向间隔 d01 个元素进行采样。取值范围为[1, L]。默认值: 1

  • group (int,可选) - 将过滤器拆分为组, in_channelsout_channels 必须可被 group 整除。默认值:1

  • has_bias (bool,可选) - Conv1d层是否添加偏置参数。默认值: False

  • weight_init (Union[Tensor, str, Initializer, numbers.Number],可选) - 权重参数的初始化方法。它可以是Tensor,str,Initializer或numbers.Number。当使用str时,可选 "TruncatedNormal""Normal""Uniform""HeUniform""XavierUniform" 分布以及常量 "One""Zero" 分布的值,可接受别名 "xavier_uniform""he_uniform""ones""zeros" 。上述字符串大小写均可。更多细节请参考 Initializer, 的值。默认值: None ,权重使用 "HeUniform" 初始化。

  • bias_init (Union[Tensor, str, Initializer, numbers.Number],可选) - 偏置参数的初始化方法。可以使用的初始化方法与 weight_init 相同。更多细节请参考 Initializer, 的值。默认值: None ,偏差使用 "Uniform" 初始化。

  • dtype (mindspore.dtype) - Parameters的dtype。默认值: mstype.float32

输入:
  • x (Tensor) - shape为 (N,Cin,Lin) 的Tensor。

输出:

Tensor,shape为 (N,Cout,Lout)

pad_mode为 "same" 时:

Lout=Linstride

pad_mode为 "valid" 时:

Lout=Lindilation×(kernel_size1)stride

pad_mode为 "pad" 时:

Lout=Lin+2×padding(kernel_size1)×dilation1stride+1
异常:
  • TypeError - in_channelsout_channelskernel_sizestridepaddingdilation 不是int。

  • ValueError - in_channelsout_channelskernel_sizestridedilation 小于1。

  • ValueError - padding 小于0。

  • ValueError - pad_mode 不是 "same""valid""pad"

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore
>>> from mindspore import Tensor, nn
>>> import numpy as np
>>> net = nn.Conv1d(120, 240, 4, has_bias=False, weight_init='normal')
>>> x = Tensor(np.ones([1, 120, 640]), mindspore.float32)
>>> output = net(x).shape
>>> print(output)
(1, 240, 640)