设计
规格
API
API映射
迁移指南
FAQ
RELEASE NOTES
线性修正单元激活函数(Rectified Linear Unit)。
更多参考详见 mindspore.ops.relu()。
mindspore.ops.relu()
Ascend GPU CPU
Ascend
GPU
CPU
样例:
>>> input_x = Tensor(np.array([[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]), mindspore.float32) >>> relu = ops.ReLU() >>> output = relu(input_x) >>> print(output) [[0. 4. 0.] [2. 0. 9.]]