mindspore.mint.nn.functional.leaky_relu

mindspore.mint.nn.functional.leaky_relu(input, negative_slope=0.01)[源代码]

leaky_relu激活函数。 input 中小于0的元素乘以 negative_slope

该激活函数定义如下:

\[\text{leaky_relu}(input) = \begin{cases}input, &\text{if } input \geq 0; \cr \text{negative_slope} * input, &\text{otherwise.}\end{cases}\]

其中,\(negative\_slope\) 表示 negative_slope 参数。

更多细节详见 Rectifier Nonlinearities Improve Neural Network Acoustic Models

LeakyReLU函数图:

../../_images/LeakyReLU.png
参数:
  • input (Tensor) - 计算leaky_relu的任意维度的Tensor。

  • negative_slope (Union[int, float]) - input 的元素小于0时激活函数的斜率,默认值: 0.01

返回:

Tensor,数据类型和shape与 input 相同。

异常:
  • TypeError - input 不是Tensor。

  • TypeError - negative_slope 不是浮点数或整数。

支持平台:

Ascend

样例:

>>> import mindspore
>>> import numpy as np
>>> from mindspore import Tensor, mint
>>> input = Tensor(np.array([[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]), mindspore.float32)
>>> print(mint.nn.functional.leaky_relu(input, negative_slope=0.2))
[[-0.2  4.  -1.6]
 [ 2.  -1.   9. ]]