mindspore.nn.SmoothL1Loss
- class mindspore.nn.SmoothL1Loss(beta=1.0, reduction='none')[源代码]
SmoothL1损失函数,如果预测值和目标值的逐个元素绝对误差小于设定阈值 beta 则用平方项,否则用绝对误差项。
给定两个输入 \(x,\ y\),SmoothL1Loss定义如下:
\[\begin{split}L_{i} = \begin{cases} \frac{0.5 (x_i - y_i)^{2}}{\beta}, & \text{if } |x_i - y_i| < {\beta} \\ |x_i - y_i| - 0.5 {\beta}, & \text{otherwise.} \end{cases}\end{split}\]其中,\({\beta}\) 代表阈值 beta 。
当 reduction 不是设定为 none 时,计算如下:
\[\begin{split}L = \begin{cases} \operatorname{mean}(L_{i}), & \text{if reduction} = \text{'mean';}\\ \operatorname{sum}(L_{i}), & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]说明
SmoothL1Loss可以看成
mindspore.nn.L1Loss
的修改版本,也可以看成mindspore.nn.L1Loss
和mindspore.ops.L2Loss
的组合。mindspore.nn.L1Loss
计算两个输入Tensor之间的绝对误差,而mindspore.ops.L2Loss
计算两个输入Tensor之间的平方误差。mindspore.ops.L2Loss
通常更快收敛,但对离群值的鲁棒性较差。该损失函数具有较好的鲁棒性。
- 参数:
beta (float) - 损失函数计算在L1Loss和L2Loss间变换的阈值。默认值:
1.0
。reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选
'none'
、'mean'
、'sum'
,默认值:'none'
。"none"
:不应用规约方法。"mean"
:计算输出元素的平均值。"sum"
:计算输出元素的总和。
- 输入:
logits (Tensor) - 预测值,任意维度Tensor。数据类型为float16或float32。
labels (Tensor) - 目标值,数据类型和shape与 logits 相同的Tensor。
- 输出:
Tensor。如果 reduction 为'none',则输出为Tensor且与 logits 的shape相同。否则shape为 \(()\)。
- 异常:
TypeError - beta 不是float。
ValueError - reduction 不是'none','mean'和'sum'中的任意一个。
TypeError - logits 或 labels 不是Tensor。
TypeError - logits 或 labels 的数据类型不是float16或float32中的任一者。
TypeError - logits 的数据类型与 labels 不同。
ValueError - beta 小于0。
ValueError - logits 的shape与 labels 不同。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> import mindspore >>> from mindspore import Tensor, nn >>> import numpy as np >>> loss = nn.SmoothL1Loss() >>> logits = Tensor(np.array([1, 2, 3]), mindspore.float32) >>> labels = Tensor(np.array([1, 2, 2]), mindspore.float32) >>> output = loss(logits, labels) >>> print(output) [0. 0. 0.5]