mindspore.ops.SparseSoftmaxCrossEntropyWithLogits

class mindspore.ops.SparseSoftmaxCrossEntropyWithLogits(is_grad=False)[源代码]

计算预测值和标签之间的稀疏softmax交叉熵。

将预测值设置为 X ,输入标签设置为 Y ,输出设置为 loss 。然后,

\[\begin{split}\begin{array}{ll} \\ p_{ij} = softmax(X_{ij}) = \frac{\exp(x_i)}{\sum_{j = 0}^{N-1}\exp(x_j)} \\ loss_{ij} = \begin{cases} -ln(p_{ij}), &j = y_i \cr 0, & j \neq y_i \end{cases} \\ loss = \sum_{ij} loss_{ij} \end{array}\end{split}\]
参数:
  • is_grad (bool) - 如果为 True ,则返回计算的梯度。默认值: False

输入:
  • logits (Tensor) - 输入的预测值,其shape为 \((N, C)\) 。数据类型必须为float16或float32。

  • labels (Tensor) - 输入的标签,其shape为 \((N)\) 。数据类型必须为int32或int64。

输出:

Tensor,如果 is_gradFalse ,则输出Tensor是损失值,是一个Tensor;如果 is_gradTrue ,则输出记录的是输入的梯度,其shape与 logits 相同。

异常:
  • TypeError - 如果 is_grad 不是bool。

  • TypeError - 如果 logits 的数据类型既不是float16也不是float32。

  • TypeError - 如果 labels 的数据类型既不是int32也不是int64。

  • ValueError - 如果 \(logits.shape[0] != labels.shape[0]\)

支持平台:

GPU CPU

样例:

>>> import mindspore
>>> from mindspore import Tensor, ops
>>> logits = Tensor([[2, 3, 1, 4, 5], [2, 1, 2, 4, 3]], mindspore.float32)
>>> labels = Tensor([0, 1], mindspore.int32)
>>> sparse_softmax_cross = ops.SparseSoftmaxCrossEntropyWithLogits()
>>> loss = sparse_softmax_cross(logits, labels)
>>> print(loss)
3.4878292
>>> sparse_softmax_cross_grad = ops.SparseSoftmaxCrossEntropyWithLogits(is_grad=True)
>>> loss_grad = sparse_softmax_cross_grad(logits, labels)
>>> print(loss_grad)
[[-0.48415753  0.04306427  0.00582811  0.11706084  0.3182043 ]
 [ 0.04007946 -0.4852556   0.04007946  0.2961494   0.10894729]]