mindspore.mint.nn.ReLU
- class mindspore.mint.nn.ReLU[源代码]
逐元素计算ReLU(Rectified Linear Unit activation function)修正线性单元激活函数。
\[\text{ReLU}(input) = (input)^+ = \max(0, input),\]逐元素求 \(\max(0, input)\) 。
说明
负数输出值会被修改为0,正数输出不受影响。
ReLU激活函数图:
- 输入:
input (Tensor) - 用于计算ReLU的任意维度的Tensor。
- 输出:
Tensor,数据类型和shape与 input 相同。
- 异常:
TypeError - input 的数据类型不支持。
- 支持平台:
Ascend
样例:
>>> import numpy as np >>> import mindspore >>> from mindspore import Tensor, mint >>> input = Tensor(np.array([-1, 2, -3, 2, -1]), mindspore.float16) >>> relu = mint.nn.ReLU() >>> output = relu(input) >>> print(output) [0. 2. 0. 2. 0.]