mindspore.nn.SampledSoftmaxLoss
- class mindspore.nn.SampledSoftmaxLoss(num_sampled, num_classes, num_true=1, sampled_values=None, remove_accidental_hits=True, seed=0, reduction='none')[源代码]
抽样交叉熵损失函数。
一般在类别数很大时使用。可加速训练以交叉熵为损失函数的分类器。
- 参数:
num_sampled (int) - 抽样的类别数。
num_classes (int) - 类别总数。
num_true (int) - 每个训练样本的类别数。默认值:
1
。sampled_values (Union[list, tuple]) - 抽样候选值。由 *CandidateSampler 函数返回的(sampled_candidates, true_expected_count , sampled_expected_count)的list或tuple。如果默认值为None,则应用 UniformCandidateSampler 。默认值:
None
。remove_accidental_hits (bool) - 是否移除抽样中的目标类等于标签的情况。默认值:
True
。seed (int) - 抽样的随机种子。默认值:
0
。reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选
'none'
、'mean'
、'sum'
,默认值:'none'
。"none"
:不应用规约方法。"mean"
:计算输出元素的平均值。"sum"
:计算输出元素的总和。
- 输入:
weights (Tensor) - 输入的权重,shape为 \((C, dim)\) 的Tensor。
bias (Tensor) - 分类的偏置。shape为 \((C,)\) 的Tensor。
labels (Tensor) - 输入目标值Tensor,其shape为 \((N, num\_true)\) ,其数据类型为 int64, int32 。
logits (Tensor) - 输入预测值Tensor,其shape为 \((N, dim)\) 。
- 输出:
Tensor或Scalar,如果 reduction 为
'none'
,则输出是shape为 \((N,)\) 的Tensor。否则,输出为Scalar。- 异常:
TypeError - sampled_values 不是list或tuple。
TypeError - labels 的数据类型既不是int32,也不是int64。
ValueError - reduction 不为
'none'
、'mean'
或'sum'
。ValueError - num_sampled 或 num_true 大于 num_classes 。
ValueError - sampled_values 的长度不等于3。
- 支持平台:
GPU
样例:
>>> import mindspore >>> from mindspore import Tensor, nn >>> import numpy as np >>> mindspore.set_seed(1) >>> loss = nn.SampledSoftmaxLoss(num_sampled=4, num_classes=7, num_true=1) >>> weights = Tensor(np.random.randint(0, 9, [7, 10]), mindspore.float32) >>> biases = Tensor(np.random.randint(0, 9, [7]), mindspore.float32) >>> labels = Tensor([0, 1, 2]) >>> logits = Tensor(np.random.randint(0, 9, [3, 10]), mindspore.float32) >>> output = loss(weights, biases, labels, logits) >>> print(output) [4.6051701e+01 1.4000047e+01 6.1989022e-06]