比较与torch.nn.SmoothL1Loss的差异
torch.nn.SmoothL1Loss
class torch.nn.SmoothL1Loss(size_average=None, reduce=None, reduction='mean', beta=1.0)(input, target) -> Tensor
更多内容详见torch.nn.SmoothL1Loss。
mindspore.nn.SmoothL1Loss
class mindspore.nn.SmoothL1Loss(beta=1.0, reduction='none')(logits, labels) -> Tensor
更多内容详见mindspore.nn.SmoothL1Loss。
差异对比
PyTorch:SmoothL1Loss损失函数,如果预测值和目标值的逐个元素绝对误差小于设定阈值beta则用平方项,否则用绝对误差项。
MindSpore:除两个在PyTorch已弃用的参数不同外,功能上无差异。
分类 |
子类 |
PyTorch |
MindSpore |
差异 |
---|---|---|---|---|
参数 |
参数1 |
size_average |
- |
已弃用,被reduction取代,MindSpore无此参数 |
参数2 |
reduce |
- |
已弃用,被reduction取代,MindSpore无此参数 |
|
参数3 |
reduction |
reduction |
功能一致,默认值不同 |
|
参数4 |
beta |
beta |
- |
|
输入 |
输入1 |
input |
logits |
功能一致,参数名不同 |
输入2 |
target |
labels |
功能一致,参数名不同 |
代码示例
两API实现功能一致,用法相同。
# PyTorch
import torch
import torch.nn as nn
beta = 1
loss = nn.SmoothL1Loss(reduction="none", beta=beta)
logits = torch.FloatTensor([1, 2, 3])
labels = torch.FloatTensor([1, 2, 2])
output = loss(logits, labels)
print(output.numpy())
# [0. 0. 0.5]
# MindSpore
import mindspore
import numpy as np
from mindspore import Tensor
loss = mindspore.nn.SmoothL1Loss()
logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
labels = Tensor(np.array([1, 2, 2]), mindspore.float32)
output = loss(logits, labels)
print(output)
# [0. 0. 0.5]