mindspore.ops.NLLLoss
- class mindspore.ops.NLLLoss(reduction='mean', ignore_index=- 100)[源代码]
获取预测值和目标值之间的负对数似然损失。
\(reduction = none\) 时,负对数似然损失如下:
\[\ell(x, t)=L=\left\{l_{1}, \ldots, l_{N}\right\}^{\top}, \quad l_{n}=-w_{t_{n}} x_{n, t_{n}}, \quad w_{c}=\text { weight }[c] \cdot 1\]其中, \(x\) 表示预测值, \(t\) 表示目标值, \(w\) 表示权重, \(N\) 表示batch size, \(c\) 限定范围为[0, C-1],表示类索引,其中 \(C\) 表示类的数量。
\(reduction \neq none\) 时(默认为
"mean"
),则\[\begin{split}\ell(x, t)=\left[\{\begin{array}{ll} \sum_{n=1}^{N} \frac{1}{\sum_{n=1}^{N} w_{t n}} l_{n}, & \text { if reduction }=\text { 'mean'; } \\ \sum_{n=1}^{N} l_{n}, & \text { if reduction }=\text { 'sum' } \end{array}\right]\end{split}\]- 参数:
reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选
'none'
、'mean'
、'sum'
,默认值:'mean'
。"none"
:不应用规约方法。"mean"
:计算输出元素的加权平均值。"sum"
:计算输出元素的总和。
ignore_index (int) - 指定标签中需要忽略的值(一般为填充值),使其不对梯度产生影响。默认值:
-100
。
- 输入:
logits (Tensor) - 输入预测值,shape为 \((N, C)\) 。数据类型仅支持float32或float16。
labels (Tensor) - 输入目标值,shape为 \((N,)\) ,取值范围为 \([0, C-1]\) 。数据类型仅支持int32或int64。
weight (Tensor) - 指定各类别的权重,shape为 \((C,)\) ,数据类型仅支持float32或float16。
- 输出:
由 loss 和 total_weight 组成的2个Tensor的tuple。
loss (Tensor) - 当 reduction 为'none'且 logits 为二维Tensor时, loss 的shape为 \((N,)\) 。否则, loss 为scalar。数据类型与 logits 相同。
total_weight (Tensor) - total_weight 是scalar,数据类型与 weight 相同。
- 异常:
TypeError - logits 或 weight 的数据类型既不是float16也不是float32。
TypeError - labels 的数据类型既不是int32也不是int64。
ValueError - logits 不是二维Tensor, labels 和 weight 不是一维Tensor。 logits 的第一个维度不等于 labels , logits 的第二个维度不等于 weight 。
ValueError - labels 的取值超出 \([0, C-1]\) ,其中 \(C\) 表示类的数量。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> import numpy as np >>> from mindspore import Tensor, ops >>> logits = Tensor(np.array([[0.5488135, 0.71518934], ... [0.60276335, 0.5448832], ... [0.4236548, 0.6458941]]).astype(np.float32)) >>> labels = Tensor(np.array([0, 0, 0]).astype(np.int32)) >>> weight = Tensor(np.array([0.3834415, 0.79172504]).astype(np.float32)) >>> nll_loss = ops.NLLLoss(reduction="mean") >>> loss, weight = nll_loss(logits, labels, weight) >>> print(loss) -0.52507716 >>> print(weight) 1.1503246