mindspore.ops.SparseSoftmaxCrossEntropyWithLogits
- class mindspore.ops.SparseSoftmaxCrossEntropyWithLogits(is_grad=False)[源代码]
计算预测值和标签之间的稀疏softmax交叉熵。
将预测值设置为 X ,输入标签设置为 Y ,输出设置为 loss 。然后,
\[\begin{split}\begin{array}{ll} \\ p_{ij} = softmax(X_{ij}) = \frac{\exp(x_i)}{\sum_{j = 0}^{N-1}\exp(x_j)} \\ loss_{ij} = \begin{cases} -ln(p_{ij}), &j = y_i \cr 0, & j \neq y_i \end{cases} \\ loss = \sum_{ij} loss_{ij} \end{array}\end{split}\]- 参数:
is_grad (bool) - 如果为True,则返回计算的梯度。默认值:False。
- 输入:
logits (Tensor) - 输入的预测值,其shape为 \((N, C)\) 。数据类型必须为float16或float32。
labels (Tensor) - 输入的标签,其shape为 \((N)\) 。数据类型必须为int32或int64。
- 输出:
Tensor,如果 is_grad 为False,则输出Tensor是损失值,是一个Tensor;如果 is_grad 为True,则输出记录的是输入的梯度,其shape与 logits 相同。
- 异常:
TypeError - 如果 is_grad 不是bool。
TypeError - 如果 logits 的数据类型既不是float16也不是float32。
TypeError - 如果 labels 的数据类型既不是int32也不是int64。
ValueError - 如果 \(logits.shape[0] != labels.shape[0]\) 。
- 支持平台:
GPU
CPU
样例:
>>> logits = Tensor([[2, 3, 1, 4, 5], [2, 1, 2, 4, 3]], mindspore.float32) >>> labels = Tensor([0, 1], mindspore.int32) >>> sparse_softmax_cross = ops.SparseSoftmaxCrossEntropyWithLogits() >>> loss = sparse_softmax_cross(logits, labels) >>> print(loss) 3.4878292 >>> sparse_softmax_cross_grad = ops.SparseSoftmaxCrossEntropyWithLogits(is_grad=True) >>> loss_grad = sparse_softmax_cross_grad(logits, labels) >>> print(loss_grad) [[-0.48415753 0.04306427 0.00582811 0.11706084 0.3182043 ] [ 0.04007946 -0.4852556 0.04007946 0.2961494 0.10894729]]