mindspore.nn.GaussianNLLLoss

class mindspore.nn.GaussianNLLLoss(*, full=False, eps=1e-06, reduction='mean')[源代码]

服从高斯分布的负对数似然损失。

目标值被认为是高斯分布的采样,其中期望和方差通过神经网络来预测。对于以高斯分布为模型的张量 labels 和记录期望的张量 logits ,以及均为正数的方差张量 var 来说,计算的loss为:

\[\text{loss} = \frac{1}{2}\left(\log\left(\text{max}\left(\text{var}, \ \text{eps}\right)\right) + \frac{\left(\text{logits} - \text{labels}\right)^2} {\text{max}\left(\text{var}, \ \text{eps}\right)}\right) + \text{const.}\]

其中,\(eps\) 用于 \(log\) 的稳定性。在默认情况下,常数部分被忽略,除非 \(full=True\)。如果 \(var\)\(logits\) 的shape不一致(出于同方差性的假设),那么它必须最后一个维度是1,或者具有更少的维度(其他维度相同),来获得正确的广播。

参数:
  • full (bool) - 指定损失函数中的常数部分。如果为True,则常数为 \(const = 0.5*log(2*pi)\)。默认值:False。

  • eps (float) - 用于提高log的稳定性。默认值:1e-6。

  • reduction (str) - 指定应用于输出结果的计算方式,’none’、’mean’、’sum’,默认值:’mean’。

输入:
  • logits (Tensor) - shape为 \((N, *)\)\((*)\)* 代表着任意数量的额外维度。

  • labels (Tensor) - shape为 \((N, *)\)\((*)\)。和 logits 具有相同shape,或者相同shape但有一个维度为1(以允许广播)。

  • var (Tensor) - shape为 \((N, *)\)\((*)\)。和 logits 具有相同shape,或者相同shape但有一个维度为1,或者少一个维度(以允许广播)。

返回:

Tensor或Tensor scalar,根据 \(reduction\) 计算的loss。

异常:
  • TypeError - logits 不是Tensor。

  • TypeError - labels 不是Tensor。

  • TypeError - full 不是bool。

  • TypeError - eps 不是float。

  • ValueError - eps 不是在[0, inf)区间的float。

  • ValueError - reduction 不是”none”、”mean”或者”sum”。

支持平台:

Ascend GPU CPU

样例:

>>> import numpy as np
>>> from mindspore import Tensor
>>> import mindspore.nn as nn
>>> import mindspore.common.dtype as mstype
>>> arr1 = np.arange(8).reshape((4, 2))
>>> arr2 = np.array([2, 3, 1, 4, 6, 4, 4, 9]).reshape((4, 2))
>>> logits = Tensor(arr1, mstype.float32)
>>> labels = Tensor(arr2, mstype.float32)
>>> loss = nn.GaussianNLLLoss(reduction='mean')
>>> var = Tensor(np.ones((4, 1)), mstype.float32)
>>> output = loss(logits, labels, var)
>>> print(output)
1.4374993