比较与tf.nn.leaky_relu的功能差异
tf.nn.leaky_relu
tf.nn.leaky_relu(features, alpha=0.2, name=None) -> Tensor
更多内容详见tf.nn.leaky_relu。
mindspore.nn.LeakyReLU
class mindspore.nn.LeakyReLU(alpha=0.2)(x) -> Tensor
更多内容详见mindspore.nn.LeakyReLU。
差异对比
TensorFlow:应用Leaky ReLU激活函数,其中参数alpha
是用于控制激活函数的斜率。
MindSpore:MindSpore此API实现功能与TensorFlow基本一致。
分类 |
子类 |
TensorFlow |
MindSpore |
差异 |
---|---|---|---|---|
参数 |
参数1 |
features |
x |
功能一致,参数名不同 |
参数2 |
alpha |
alpha |
- |
|
参数3 |
name |
- |
不涉及 |
代码示例
两API实现功能一致,用法相同。
# TensorFlow
import tensorflow as tf
features = tf.constant([[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]], dtype=tf.float32)
output = tf.nn.leaky_relu(features).numpy()
print(output)
# [[-0.2 4. -1.6]
# [ 2. -1. 9. ]]
# MindSpore
import mindspore
from mindspore import Tensor
import mindspore.nn as nn
x = Tensor([[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]).astype('float32')
m = nn.LeakyReLU()
output = m(x)
print(output)
# [[-0.2 4. -1.6]
# [ 2. -1. 9. ]]