mindspore.ops.PReLU

class mindspore.ops.PReLU[源代码]

带参数的线性修正单元激活函数(Parametric Rectified Linear Unit activation function)。

更多参考详见 mindspore.ops.prelu()

输入:
  • x (Tensor) - 激活函数的输入Tensor。数据类型为float16或float32。shape为 \((N, C, *)\) ,其中 \(*\) 表示任意的附加维度。

  • weight (Tensor) - 权重Tensor。数据类型为float16或float32。weight 只可以是向量,其长度与输入 x 的通道数C相同。在GPU设备上,当输入为标量时,shape为1。

输出:

Tensor,数据类型与 x 的相同。

支持平台:

Ascend GPU CPU

样例:

>>> class Net(nn.Cell):
...     def __init__(self):
...         super(Net, self).__init__()
...         self.prelu = ops.PReLU()
...     def construct(self, x, weight):
...         result = self.prelu(x, weight)
...         return result
...
>>> x = Tensor(np.arange(-6, 6).reshape((2, 3, 2)), mindspore.float32)
>>> weight = Tensor(np.array([0.1, 0.6, -0.3]), mindspore.float32)
>>> net = Net()
>>> output = net(x, weight)
>>> print(output)
[[[-0.60 -0.50]
  [-2.40 -1.80]
  [ 0.60  0.30]]
 [[ 0.00  1.00]
  [ 2.00  3.00]
  [ 4.0   5.00]]]