mindspore.ops.SparseSoftmaxCrossEntropyWithLogits

class mindspore.ops.SparseSoftmaxCrossEntropyWithLogits(is_grad=False)[源代码]

计算预测值和标签之间的稀疏softmax交叉熵。

将预测值设置为 X ,输入标签设置为 Y ,输出设置为 loss 。然后,

pij=softmax(Xij)=exp(xi)j=0N1exp(xj)lossij={ln(pij),j=yi0,jyiloss=ijlossij
参数:
  • is_grad (bool) - 如果为 True ,则返回计算的梯度。默认值: False

输入:
  • logits (Tensor) - 输入的预测值,其shape为 (N,C) 。数据类型必须为float16或float32。

  • labels (Tensor) - 输入的标签,其shape为 (N) 。数据类型必须为int32或int64。

输出:

Tensor,如果 is_gradFalse ,则输出Tensor是损失值,是一个Tensor;如果 is_gradTrue ,则输出记录的是输入的梯度,其shape与 logits 相同。

异常:
  • TypeError - 如果 is_grad 不是bool。

  • TypeError - 如果 logits 的数据类型既不是float16也不是float32。

  • TypeError - 如果 labels 的数据类型既不是int32也不是int64。

  • ValueError - 如果 logits.shape[0]!=labels.shape[0]

支持平台:

GPU CPU

样例:

>>> import mindspore
>>> from mindspore import Tensor, ops
>>> logits = Tensor([[2, 3, 1, 4, 5], [2, 1, 2, 4, 3]], mindspore.float32)
>>> labels = Tensor([0, 1], mindspore.int32)
>>> sparse_softmax_cross = ops.SparseSoftmaxCrossEntropyWithLogits()
>>> loss = sparse_softmax_cross(logits, labels)
>>> print(loss)
3.4878292
>>> sparse_softmax_cross_grad = ops.SparseSoftmaxCrossEntropyWithLogits(is_grad=True)
>>> loss_grad = sparse_softmax_cross_grad(logits, labels)
>>> print(loss_grad)
[[-0.48415753  0.04306427  0.00582811  0.11706084  0.3182043 ]
 [ 0.04007946 -0.4852556   0.04007946  0.2961494   0.10894729]]