mindspore.nn.Softmin
- class mindspore.nn.Softmin(axis=- 1)[源代码]
Softmin函数,它是二分类函数
mindspore.nn.Sigmoid
在多分类上的推广,目的是将多分类的结果以概率的形式展现出来。对输入Tensor在轴 axis 上的元素计算其指数函数值,然后归一化到[0, 1]范围,总和为1。
Softmin定义为:
\[\text{softmin}(x_{i}) = \frac{\exp(-x_i)}{\sum_{j=0}^{n-1}\exp(-x_j)},\]其中, \(x_{i}\) 是输入Tensor在轴 axis 上的第 \(i\) 个元素。
- 参数:
axis (Union[int, tuple[int]]) - 指定Softmin运算的轴axis,假设输入 x 的维度为x.ndim,则axis的范围为 [-x.ndim, x.ndim) ,-1表示最后一个维度。默认值:
-1
。CPU环境下,axis只支持int类型。
- 输入:
x (Tensor) - 用于计算Softmin函数的Tensor,数据类型为float16或float32。
- 输出:
Tensor,数据类型和shape与 x 相同,取值范围为[0, 1]。
- 异常:
TypeError - axis 既不是int也不是tuple。
TypeError - x 的数据类型既不是float16也不是float32。
ValueError - axis 是长度小于1的tuple。
ValueError - axis 是一个tuple,其元素不都在 [-x.ndim, x.ndim) 范围内。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> import mindspore >>> from mindspore import Tensor, nn >>> import numpy as np >>> # axis = -1(default), and the sum of return value is 1.0. >>> x = Tensor(np.array([-1, -2, 0, 2, 1]), mindspore.float16) >>> softmin = nn.Softmin() >>> output = softmin(x) >>> print(output) [0.2341 0.636 0.0862 0.01165 0.03168 ]