mindspore.mint.nn.BCELoss

查看源文件
class mindspore.mint.nn.BCELoss(weight=None, reduction='mean')[源代码]

计算目标值和预测值之间的二值交叉熵损失值。

将预测值设置为 \(x\) ,目标值设置为 \(y\) ,输出损失设置为 \(\ell(x, y)\)

则公式如下:

\[L = \{l_1,\dots,l_n,\dots,l_N\}^\top, \quad l_n = - w_n \left[ y_n \cdot \log x_n + (1 - y_n) \cdot \log (1 - x_n) \right]\]

其中N是批次大小。公式如下:

\[\begin{split}\ell(x, y) = \begin{cases} L, & \text{if reduction} = \text{'none';}\\ \operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\ \operatorname{sum}(L), & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]

说明

预测值一般是sigmoid函数的输出。因为是二分类,所以目标值应是0或者1。如果 \(x_n\) 是0或1,则上述损失函数是无意义的。

警告

这是一个实验性API,后续可能修改或删除。

参数:
  • weight (Tensor, 可选) - 指定每个批次二值交叉熵的权重。与输入数据的shape和数据类型相同。默认值: None

  • reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选 'none''mean''sum' ,默认值: 'mean'

    • "none":不应用规约方法。

    • "mean":计算输出元素的加权平均值。

    • "sum":计算输出元素的总和。

输入:
  • input (Tensor) - 预测值Tensor,shape \((N, *)\) ,其中 \(*\) 代表任意数量的附加维度。数据类型必须为float16、float32或bfloat16(仅Atlas A2训练系列产品支持)。

  • target (Tensor) - 目标值Tensor,shape \((N, *)\) ,其中 \(*\) 代表任意数量的附加维度。与 input 的shape和数据类型相同。

输出:

Tensor,数据类型与 input 相同。如果 reduction'none' ,则shape与 input 相同。否则,输出为Scalar的Tensor。

异常:
  • TypeError - inputtargetweight (如果给定)的数据类型不是float16、float32或bfloat16。

  • ValueError - reduction 不为 'none''mean''sum'

  • ValueError - input 的shape与 targetweight (如果给定)不同。

支持平台:

Ascend

样例:

>>> import mindspore as ms
>>> from mindspore import mint
>>> import numpy as np
>>> weight = ms.Tensor(np.array([[1.0, 2.0, 3.0], [4.0, 3.3, 2.2]]), ms.float32)
>>> loss = mint.nn.BCELoss(weight=weight, reduction='mean')
>>> input = ms.Tensor(np.array([[0.1, 0.2, 0.3], [0.5, 0.7, 0.9]]), ms.float32)
>>> target = ms.Tensor(np.array([[0, 1, 0], [0, 0, 1]]), ms.float32)
>>> output = loss(input, target)
>>> print(output)
1.8952923