mindspore.nn.TransformerEncoderLayer
- class mindspore.nn.TransformerEncoderLayer(d_model: int, nhead: int, dim_feedforward: int = 2048, dropout: float = 0.1, activation: Union[str, Cell, callable] = 'relu', layer_norm_eps: float = 1e-05, batch_first: bool = False, norm_first: bool = False, dtype=mstype.float32)[源代码]
Transformer的编码器层。Transformer编码器的单层实现,包括MultiheadAttention层和FeedForward层。
- 参数:
d_model (int) - 输入的特征数。
nhead (int) - MultiheadAttention模块中注意力头的数量。
dim_feedforward (int) - FeedForward层的维数。默认值:
2048
。dropout (float) - 随机丢弃比例。默认值:
0.1
。activation (Union[str, callable, Cell]) - 中间层的激活函数,可以输入字符串(
"relu"
、"gelu"
)、函数接口(mindspore.ops.relu()
、mindspore.ops.gelu()
)或激活函数层实例(mindspore.nn.ReLU
、mindspore.nn.GELU
)。默认值:'relu'
。layer_norm_eps (float) - LayerNorm层的eps值,默认值:
1e-5
。batch_first (bool) - 如果为
True
则输入输出shape为 \((batch, seq, feature)\) ,反之,shape为 \((seq, batch, feature)\) 。默认值:False
。norm_first (bool) - 如果为
True
, 则LayerNorm层位于MultiheadAttention层和FeedForward层之前,反之,位于其后。默认值:False
。dtype (
mindspore.dtype
) - Parameter的数据类型。默认值:mstype.float32
。
- 输入:
src (Tensor) - 源序列。如果源序列没有batch,shape是 \((S, E)\) ;否则如果 batch_first=False ,则shape为 \((S, N, E)\) ,如果 batch_first=True ,则shape为 \((N, S, E)\)。 \((S)\) 是源序列的长度, \((N)\) 是batch个数, \((E)\) 是特性个数。数据类型:float16、float32或者float64。
src_mask (Tensor, 可选) - 源序列的掩码矩阵。shape是 \((S, S)\) 或 \((N*nhead, S, S)\) 。数据类型:float16、float32、float64或者bool。默认值:
None
。src_key_padding_mask (Tensor, 可选) - 源序列Key矩阵的掩码矩阵。如果目标序列没有batch,shape是 \((S)\) ,否则shape为 \((N, S)\) 。数据类型:float16、float32、float64或者bool。默认值:
None
。
- 输出:
Tensor。Tensor的shape和dtype与 src 一致。
- 异常:
ValueError - 如果 activation 不是str 、 callable 或 Cell的实例。
ValueError - 如果 activation 不是
mindspore.nn.ReLU
、mindspore.nn.GELU
的子类、mindspore.ops.relu()
ormindspore.ops.gelu()
、"relu" 或 "gelu"。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> import mindspore as ms >>> import numpy as np >>> encoder_layer = ms.nn.TransformerEncoderLayer(d_model=512, nhead=8) >>> src = ms.Tensor(np.random.rand(10, 32, 512), ms.float32) >>> out = encoder_layer(src) >>> print(out.shape) (10, 32, 512) >>> # Alternatively, when batch_first=True: >>> encoder_layer = ms.nn.TransformerEncoderLayer(d_model=512, nhead=8, batch_first=True) >>> src = ms.Tensor(np.random.rand(32, 10, 512), ms.float32) >>> out = encoder_layer(src) >>> print(out.shape) (32, 10, 512)