mindspore.ops.ReLU

class mindspore.ops.ReLU[源代码]

线性修正单元激活函数(Rectified Linear Unit)。

返回 \(\max(x,\ 0)\) 的值,负值神经元将被设置为0, 正值神经元将保持不变。

\[ReLU(x) = (x)^+ = max(0, x)\]

Note

一般来说,与 ReLUV2 相比,此算子更常用。且 ReLUV2 会多输出一个掩码。

输入:

  • input_x (Tensor) - ReLU的输入,任意维度的Tensor。其数据类型为数值型。

输出:

Tensor,数据类型和shape与 input_x 相同。

异常:

  • TypeError - input_x 的数据类型不是数值型。

  • TypeError - input_x 不是Tensor。

支持平台:

Ascend GPU CPU

样例:

>>> input_x = Tensor(np.array([[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]), mindspore.float32)
>>> relu = ops.ReLU()
>>> output = relu(input_x)
>>> print(output)
[[0. 4. 0.]
 [2. 0. 9.]]