mindspore.nn.GRUCell
- class mindspore.nn.GRUCell(input_size: int, hidden_size: int, has_bias: bool = True, dtype=mstype.float32)[源代码]
GRU(Gate Recurrent Unit)称为门控循环单元。
\[\begin{split}\begin{array}{ll} r = \sigma(W_{ir} x + b_{ir} + W_{hr} h + b_{hr}) \\ z = \sigma(W_{iz} x + b_{iz} + W_{hz} h + b_{hz}) \\ n = \tanh(W_{in} x + b_{in} + r * (W_{hn} h + b_{hn})) \\ h' = (1 - z) * n + z * h \end{array}\end{split}\]这里 \(\sigma\) 是sigmoid激活函数, \(*\) 是乘积。 \(W, b\) 是公式中输出和输入之间的可学习权重, \(h\) 是隐藏层状态(hidden state), \(r\) 是重置门(reset gate), \(z\) 是更新门(update gate), \(n\) 是第n层。 例如, \(W_{ir}, b_{ir}\) 是用于将输入 \(x\) 转换为 \(r\) 的权重和偏置。详见论文 Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation 。
- 参数:
input_size (int) - 输入的大小。
hidden_size (int) - 隐藏状态大小。
has_bias (bool) - cell是否有偏置项 \(b_{in}\) 和 \(b_{hn}\) 。默认值:
True
。dtype (
mindspore.dtype
) - Parameters的dtype。默认值:mstype.float32
。
- 输入:
x (Tensor) - shape为 \((batch\_size, input\_size)\) 的Tensor。
hx (Tensor) - 数据类型为mindspore.float32,shape为 \((batch\_size, hidden\_size)\) 的Tensor。
- 输出:
hx’ (Tensor) - shape为 \((batch\_size, hidden\_size)\) 的Tensor。
- 异常:
TypeError - input_size 、 hidden_size 不是int。
TypeError - has_bias 不是bool值。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> import mindspore as ms >>> import numpy as np >>> net = ms.nn.GRUCell(10, 16) >>> x = ms.Tensor(np.ones([5, 3, 10]).astype(np.float32)) >>> hx = ms.Tensor(np.ones([3, 16]).astype(np.float32)) >>> output = [] >>> for i in range(5): ... hx = net(x[i], hx) ... output.append(hx) >>> print(output[0].shape) (3, 16)