mindspore.nn.BCELoss

class mindspore.nn.BCELoss(weight=None, reduction='mean')[源代码]

计算目标值和预测值之间的二值交叉熵损失值。

将预测值设置为 \(x\) ,目标值设置为 \(y\) ,输出损失设置为 \(\ell(x, y)\)

则公式如下:

\[L = \{l_1,\dots,l_N\}^\top, \quad l_n = - w_n \left[ y_n \cdot \log x_n + (1 - y_n) \cdot \log (1 - x_n) \right]\]

其中N是批次大小。公式如下:

\[\begin{split}\ell(x, y) = \begin{cases} L, & \text{if reduction} = \text{'none';}\\ \operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\ \operatorname{sum}(L), & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]

说明

预测值一般是sigmoid函数的输出。因为是二分类,所以目标值应是0或者1。如果输入是0或1,则上述损失函数是无意义的。

参数:
  • weight (Tensor, 可选) - 指定每个批次二值交叉熵的权重。与输入数据的shape和数据类型相同。默认值: None

  • reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选 'none''mean''sum' ,默认值: 'mean'

    • "none":不应用规约方法。

    • "mean":计算输出元素的加权平均值。

    • "sum":计算输出元素的总和。

输入:
  • logits (Tensor) - 输入预测值Tensor,shape \((N, *)\) ,其中 \(*\) 代表任意数量的附加维度。数据类型必须为float16或float32。

  • labels (Tensor) - 输入目标值Tensor,shape \((N, *)\) ,其中 \(*\) 代表任意数量的附加维度。与 logits 的shape和数据类型相同。

输出:

Tensor,数据类型与 logits 相同。如果 reduction 为’none’,则shape与 logits 相同。否则,输出为Scalar的Tensor。

异常:
  • TypeError - logits 的数据类型,labelsweight (如果给定)既不是float16,也不是float32。

  • ValueError - reduction 不为 'none''mean''sum'

  • ValueError - logits 的shape与 labelsweight (如果给定)不同。

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore as ms
>>> import mindspore.nn as nn
>>> import numpy as np
>>> weight = ms.Tensor(np.array([[1.0, 2.0, 3.0], [4.0, 3.3, 2.2]]), ms.float32)
>>> loss = nn.BCELoss(weight=weight, reduction='mean')
>>> logits = ms.Tensor(np.array([[0.1, 0.2, 0.3], [0.5, 0.7, 0.9]]), ms.float32)
>>> labels = ms.Tensor(np.array([[0, 1, 0], [0, 0, 1]]), ms.float32)
>>> output = loss(logits, labels)
>>> print(output)
1.8952923