mindspore.ops.ReLUV2
- class mindspore.ops.ReLUV2[源代码]
ReLUV2接口已经弃用,请使用
mindspore.ops.ReLU
替代。线性修正单元激活函数(Rectified Linear Unit activation function)。
按元素返回 \(\max(x,\ 0)\) 。特别说明,负数输出值会被修改为0,正数输出不受影响。
\[\text{ReLU}(x) = (x)^+ = \max(0, x),\]输入:
input_x (Tensor) - 输入Tensor必须是4-D Tensor。
输出:
output (Tensor) - 数据类型和shape与 input_x 的相同。
mask (Tensor) - 保留输出,无实际意义。
异常:
TypeError - input_x 不是Tensor。
ValueError - input_x 的shape不是4-D。
- 支持平台:
deprecated
样例:
>>> input_x = Tensor(np.array([[[[1, -2], [-3, 4]], [[-5, 6], [7, -8]]]]), mindspore.float32) >>> relu_v2 = ops.ReLUV2() >>> output, _= relu_v2(input_x) >>> print(output) [[[[1. 0.] [0. 4.]] [[0. 6.] [7. 0.]]]]