mindspore.nn.SoftMarginLoss

class mindspore.nn.SoftMarginLoss(reduction='mean')[源代码]

针对二分类问题的损失函数。

SoftMarginLoss用于计算输入Tensor \(x\) 和目标值Tensor \(y\) (包含1或-1)的二分类损失值。

\[\text{loss}(x, y) = \sum_i \frac{\log(1 + \exp(-y[i]*x[i]))}{\text{x.nelement}()}\]

\(x.nelement()\) 代表 x 中元素的个数。

参数:

  • reduction (str) - 指定应用于输出结果的计算方式。取值为”mean”,”sum”,或”none”。默认值:”mean”。

输入:

  • logits (Tensor) - 预测值,数据类型为float16或float32。

  • labels (Tensor) - 目标值,数据类型和shape与 logits 的相同。

输出:

Tensor或Scalar,如果 reduction 为”none”,其shape与 logits 相同。否则,将返回Scalar。

异常:

  • TypeError - logitslabels 不是Tensor。

  • TypeError - logitslabels 的数据类型既不是float16也不是float32。

  • ValueError - logits 的shape与 labels 不同。

  • ValueError - reduction 不为”mean”,”sum”,或”none”。

支持平台:

Ascend

样例:

>>> loss = nn.SoftMarginLoss()
>>> logits = Tensor(np.array([[0.3, 0.7], [0.5, 0.5]]), mindspore.float32)
>>> labels = Tensor(np.array([[-1, 1], [1, -1]]), mindspore.float32)
>>> output = loss(logits, labels)
>>> print(output)
0.6764238