mindspore.nn.Dense

查看源文件
class mindspore.nn.Dense(in_channels, out_channels, weight_init=None, bias_init=None, has_bias=True, activation=None, dtype=mstype.float32)[源代码]

全连接层。

适用于输入的密集连接层。公式如下:

\[\text{outputs} = \text{activation}(\text{X} * \text{kernel} + \text{bias}),\]

其中 \(X\) 是输入Tensor, \(\text{activation}\) 是激活函数, \(\text{kernel}\) 是一个权重矩阵,其数据类型与 \(X\) 相同, \(\text{bias}\) 是一个偏置向量,其数据类型与 \(X\) 相同(仅当has_bias为True时)。

警告

在PYNATIVE模式下,如果 biasFalsex 不可以大于6D。

参数:
  • in_channels (int) - Dense层输入Tensor的空间维度。

  • out_channels (int) - Dense层输出Tensor的空间维度。

  • weight_init (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。数据类型与 x 相同。str的值引用自函数 initializer。默认值:None ,权重使用HeUniform初始化。

  • bias_init (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。数据类型与 x 相同。str的值引用自函数 initializer。默认值:None ,偏差使用Uniform初始化。

  • has_bias (bool) - 是否使用偏置向量 \(\text{bias}\) 。默认值: True

  • activation (Union[str, Cell, Primitive, None]) - 应用于全连接层输出的激活函数。可指定激活函数名,如'relu',或具体激活函数,如 mindspore.nn.ReLU 。默认值: None

  • dtype (mindspore.dtype) - Parameter的数据类型。默认值: mstype.float32 。 当 weight_init 是Tensor时,Parameter的数据类型与 weight_init 数据类型一致,其他情况Parameter的数据类型跟 dtype 一致,同理 bias_init

输入:
  • x (Tensor) - shape为 \((*, in\_channels)\) 的Tensor。参数中的 in_channels 应等于输入中的 \(in\_channels\)

输出:

shape为 \((*, out\_channels)\) 的Tensor。

异常:
  • TypeError - in_channelsout_channels 不是整数。

  • TypeError - has_bias 不是bool值。

  • TypeError - activation 不是str、Cell、Primitive或者None。

  • ValueError - weight_init 的shape长度不等于2,weight_init 的shape[0]不等于 out_channels,或者 weight_init 的shape[1]不等于 in_channels

  • ValueError - bias_init 的shape长度不等于1或 bias_init 的shape[0]不等于 out_channels

  • RuntimeError - 在PYNATIVE模式下, biasFalsex 大于6D。

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore
>>> from mindspore import Tensor, nn
>>> import numpy as np
>>> x = Tensor(np.array([[180, 234, 154], [244, 48, 247]]), mindspore.float32)
>>> net = nn.Dense(3, 4)
>>> output = net(x)
>>> print(output.shape)
(2, 4)