mindspore.nn.GRU

查看源文件
class mindspore.nn.GRU(*args, **kwargs)[源代码]

GRU(Gate Recurrent Unit)称为门控循环单元网络,是循环神经网络(Recurrent Neural Network, RNN)的一种。根据输出序列和给定的初始状态计算输出序列和最终状态。

应用GRU层到输入中。

GRU网络模型中有两个门。一个是更新门,另一个是重置门。将两个连续的时间节点表示为 t1t。给定一个在时刻 t 的输入 xt ,一个隐藏状态 ht1 ,在时刻 t 的更新门和重置门使用门控机制计算。更新门 zt 用于控制前一时刻的状态信息被带入到当前状态中的程度。重置门 rt 控制前一状态有多少信息被写入到当前候选集 nt 上。完整的公式如下。

rt=σ(Wirxt+bir+Whrh(t1)+bhr)zt=σ(Wizxt+biz+Whzh(t1)+bhz)nt=tanh(Winxt+bin+rt(Whnh(t1)+bhn))ht=(1zt)nt+zth(t1)

其中 σ 是sigmoid激活函数, 是乘积。 W,b 是公式中输出和输入之间的可学习权重。例如, Wir,bir 是用于将输入 x 转换为 r 的权重和偏置。详见论文 Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation

说明

当GRU运行在Ascend上时,hidden size仅支持16的倍数。

参数:
  • input_size (int) - 输入的大小。

  • hidden_size (int) - 隐藏状态大小。

  • num_layers (int) - 网络层数。默认值: 1

  • has_bias (bool) - cell是否有偏置项 binbhn 。默认值: True

  • batch_first (bool) - 指定输入 x 的第一个维度是否为batch_size。默认值: False

  • dropout (float) - 指的是除第一层外每层输入时的Dropout概率。默认值: 0.0 。Dropout的范围为[0.0, 1.0)。

  • bidirectional (bool) - 是否为双向GRU。如果bidirectional=True,则num_directions=2,为双向GRU。否则为1,单向GRU。默认值: False

  • dtype (mindspore.dtype) - Parameters的dtype。默认值: mstype.float32

输入:
  • x (Tensor) - 数据类型为mindspore.float32、shape为 (seq_len,batch_size,input_size)(batch_size,seq_len,input_size) 的Tensor。

  • hx (Tensor) - 数据类型为mindspore.float32、shape为 (num_directionsnum_layers,batch_size,hidden_size) 的Tensor。

  • seq_length (Tensor) - 输入batch中每个序列的长度。shape为 (batch_size) 的Tensor。默认值: None 。此输入指示填充前的真实序列长度,避免填充元素被用于计算隐藏状态而影响最终输出。当 x 含填充元素时,建议使用此输入。

输出:

Tuple,包含(output, h_n)的tuple。

  • output (Tensor) - shape为 (seq_len,batch_size,num_directionshidden_size)(batch_size,seq_len,num_directionshidden_size) 的Tensor。

  • hx_n (Tensor) - shape为 (num_directionsnum_layers,batch_size,hidden_size) 的Tensor。

异常:
  • TypeError - input_sizehidden_sizenum_layers 不是整数。

  • TypeError - has_biasbatch_firstbidirectional 不是bool。

  • TypeError - dropout 既不是浮点数也不是整数。

  • ValueError - dropout 不在[0.0, 1.0)范围内。

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore as ms
>>> import numpy as np
>>> net = ms.nn.GRU(10, 16, 2, has_bias=True, batch_first=True, bidirectional=False)
>>> x = ms.Tensor(np.ones([3, 5, 10]).astype(np.float32))
>>> h0 = ms.Tensor(np.ones([1 * 2, 3, 16]).astype(np.float32))
>>> output, hn = net(x, h0)
>>> print(output.shape)
(3, 5, 16)