mindspore.ops.soft_margin_loss
- mindspore.ops.soft_margin_loss(input, target, reduction='mean')[源代码]
计算 input 和 target 之间的soft margin loss。
一个二分类任务,计算输入 \(x\) 和真实标签 \(y\) (包含1或-1)之间的损失。
\[\text{loss}(x, y) = \sum_i \frac{\log(1 + \exp(-y[i]*x[i]))}{\text{x.nelement}()}\]其中 \(x.nelement()\) 是 \(x\) 的元素数量。
警告
这是一个实验性API,后续可能修改或删除。
- 参数:
input (Tensor) - 预测值。数据类型必须为float16或float32。
target (Tensor) - 真实标签,数据类型和shape与 logits 相同。
reduction (str,可选) - 对输出应用归约方法。可选值为
'none'
、'mean'
或'sum'
,分别表示不指定计算方式、使用均值计算和使用求和计算。默认值:'mean'
。
- 输出:
Tensor或Scalar。如果 reduction 为
'none'
,其shape与 logits 相同。否则,将返回Scalar。- 异常:
TypeError - 如果 logits 或 labels 不是Tensor。
TypeError - 如果 logits 或 labels 的数据类型既不是float16也不是float32。
ValueError - 如果 logits 与 labels 的shape不相同。
ValueError - 如果 reduction 不是
'none'
、'mean'
或'sum'
。
- 支持平台:
Ascend
GPU
样例:
>>> import mindspore >>> import numpy as np >>> from mindspore import Tensor, ops >>> logits = Tensor(np.array([[0.3, 0.7], [0.5, 0.5]]), mindspore.float32) >>> labels = Tensor(np.array([[-1, 1], [1, -1]]), mindspore.float32) >>> output = ops.soft_margin_loss(logits, labels) >>> print(output) 0.6764238