mindspore.nn.GaussianNLLLoss
- class mindspore.nn.GaussianNLLLoss(*, full=False, eps=1e-06, reduction='mean')[源代码]
服从高斯分布的负对数似然损失。
目标值被认为是高斯分布的采样,其中期望和方差通过神经网络来预测。对于以高斯分布为模型的Tensor labels 和记录期望的Tensor logits ,以及均为正数的方差Tensor var 来说,计算的loss为:
\[\text{loss} = \frac{1}{2}\left(\log\left(\text{max}\left(\text{var}, \ \text{eps}\right)\right) + \frac{\left(\text{logits} - \text{labels}\right)^2} {\text{max}\left(\text{var}, \ \text{eps}\right)}\right) + \text{const.}\]其中,\(eps\) 用于 \(log\) 的稳定性。当 \(full=True\) 时,一个常数 const 会被添加到loss中。如果 \(var\) 和 \(logits\) 的shape不一致(出于同方差性的假设),那么它们必须能够正确地广播。
- 关键字参数:
full (bool,可选) - 指定损失函数中的常数部分。如果 \(full=True\),则常数 const. 为 \(0.5 * log(2\pi)\)。默认值:
False
。eps (float,可选) - 用于提高log的稳定性。默认值:
1e-6
。reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选
'none'
、'mean'
、'sum'
,默认值:'mean'
。"none"
:不应用规约方法。"mean"
:计算输出元素的平均值。"sum"
:计算输出元素的总和。
- 输入:
logits (Tensor) - shape为 \((N, *)\) 或 \((*)\)。 \(*\) 代表着任意数量的额外维度。
labels (Tensor) - shape为 \((N, *)\) 或 \((*)\)。和 logits 具有相同shape,或者相同shape但有一个维度为1(以允许广播)。
var (Tensor) - shape为 \((N, *)\) 或 \((*)\)。和 logits 具有相同shape,或者相同shape但有一个维度为1,或者少一个维度(以允许广播)。
- 返回:
Tensor或Tensor scalar,根据 \(reduction\) 计算的loss。
- 异常:
TypeError - logits 不是Tensor。
TypeError - labels 不是Tensor。
TypeError - full 不是bool。
TypeError - eps 不是float。
ValueError - eps 不是在(0, inf)区间的float。
ValueError - reduction 不是”none”、”mean”或者”sum”。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> import mindspore as ms >>> import mindspore.nn as nn >>> import numpy as np >>> arr1 = np.arange(8).reshape((4, 2)) >>> arr2 = np.array([2, 3, 1, 4, 6, 4, 4, 9]).reshape((4, 2)) >>> logits = ms.Tensor(arr1, ms.float32) >>> labels = ms.Tensor(arr2, ms.float32) >>> loss = nn.GaussianNLLLoss(reduction='mean') >>> var = ms.Tensor(np.ones((4, 1)), ms.float32) >>> output = loss(logits, labels, var) >>> print(output) 1.4374993