mindspore.mint.nn.functional.l1_loss
- mindspore.mint.nn.functional.l1_loss(input, target, reduction='mean')[源代码]
用于计算预测值和目标值之间的平均绝对误差。
假设
和 为预测值和目标值,均为一维Tensor,长度 , reduction 设置为'none'
,则计算 和 的loss不进行降维操作。公式如下:
其中,
为batch size。如果 reduction 是
'mean'
或者'sum'
,则:- 参数:
input (Tensor) - 预测值,任意维度的Tensor。
target (Tensor) - 目标值,通常情况与 input 的shape相同。如果 input 和 target 的shape不同,需要保证他们之间可以互相广播。
reduction (str, 可选) - 指定应用于输出结果的规约计算方式,可选
'none'
、'mean'
、'sum'
,默认值:'mean'
。'none'
:不应用规约方法。'mean'
:计算输出元素的平均值。注意:当reduction为'mean'
时,input和target的数据类型需要至少有一个是float。'sum'
:计算输出元素的总和。
- 返回:
Tensor或Scalar,如果 reduction 为
'none'
,则返回与 input 具有相同shape和dtype的Tensor。否则,将返回Scalar。- 异常:
TypeError - input 不是Tensor。
TypeError - target 不是Tensor。
ValueError - reduction 不为
'none'
、'mean'
或'sum'
。
- 支持平台:
Ascend
样例:
>>> from mindspore import Tensor, mint >>> from mindspore import dtype as mstype >>> x = Tensor([[1, 2, 3], [4, 5, 6]], mstype.float32) >>> target = Tensor([[6, 5, 4], [3, 2, 1]], mstype.float32) >>> output = mint.nn.functional.l1_loss(x, target, reduction="mean") >>> print(output) 3.0