比较与tf.nn.softmax的功能差异
tf.nn.softmax
tf.nn.softmax(logits, axis=None, name=None) -> Tensor
更多内容详见tf.nn.softmax。
mindspore.nn.Softmax
class mindspore.nn.Softmax(axis=-1)(x) -> Tensor
更多内容详见mindspore.nn.Softmax。
差异对比
TensorFlow:它是二分类函数在多分类上的推广,目的是将多分类的结果以概率的形式展现出来。
MindSpore:MindSpore此API实现功能与TensorFlow一致,仅参数名不同。
分类 |
子类 |
TensorFlow |
MindSpore |
差异 |
---|---|---|---|---|
参数 |
参数1 |
logits |
x |
功能一致,参数名不同 |
参数2 |
axis |
axis |
- |
|
参数3 |
name |
- |
不涉及 |
代码示例
两API实现功能一致,用法相同。
# TensorFlow
import numpy as np
import tensorflow as tf
x = tf.constant([-1, -2, 0, 2, 1], dtype=tf.float16)
output = tf.nn.softmax(x)
print(output.numpy())
# [0.03168 0.01165 0.0861 0.636 0.2341 ]
# MindSpore
import mindspore
import numpy as np
from mindspore import Tensor
x = Tensor(np.array([-1, -2, 0, 2, 1]), mindspore.float16)
softmax = mindspore.nn.Softmax()
output = softmax(x)
print(output)
# [0.03168 0.01165 0.0861 0.636 0.2341 ]