mindspore.nn.SmoothL1Loss
- class mindspore.nn.SmoothL1Loss(beta=1.0)[源代码]
SmoothL1损失函数,如果预测值和目标值的逐个元素绝对误差小于设定阈值 beta 则用平方项,否则用绝对误差项。
给定两个输入 \(x,\ y\),SmoothL1Loss定义如下:
\[\begin{split}L_{i} = \begin{cases} \frac{0.5 (x_i - y_i)^{2}}{\beta}, & \text{if } |x_i - y_i| < {\beta} \\ |x_i - y_i| - 0.5 {\beta}, & \text{otherwise.} \end{cases}\end{split}\]其中,\({\beta}\) 代表阈值 beta 。
Note
SmoothL1Loss可以看成
mindspore.nn.L1Loss
的修改版本,也可以看成mindspore.nn.L1Loss
和mindspore.ops.L2Loss
的组合。mindspore.nn.L1Loss
计算两个输入Tensor之间的绝对误差,而mindspore.ops.L2Loss
计算两个输入Tensor之间的平方误差。mindspore.ops.L2Loss
通常更快收敛,但对离群值的鲁棒性较差。该损失函数具有较好的鲁棒性。
参数:
beta (float) - 损失函数计算在L1Loss和L2Loss间变换的阈值。默认值:1.0。
输入:
logits (Tensor) - 预测值,任意维度Tensor。数据类型必须为float16或float32。
labels (Tensor) - 目标值,数据类型和shape与 logits 相同的Tensor。
输出:
Tensor,数据类型和shape与 logits 相同。
异常:
TypeError - beta 不是float。
TypeError - logits 或 labels 不是Tensor。
TypeError - logits 或 labels 的数据类型既不是float16,也不是float32。
TypeError - logits 的数据类型与 labels 不同。
ValueError - beta 小于或等于0。
ValueError - logits 的shape与 labels 不同。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> loss = nn.SmoothL1Loss() >>> logits = Tensor(np.array([1, 2, 3]), mindspore.float32) >>> labels = Tensor(np.array([1, 2, 2]), mindspore.float32) >>> output = loss(logits, labels) >>> print(output) [0. 0. 0.5]