mindspore.nn.BCEWithLogitsLoss

查看源文件
class mindspore.nn.BCEWithLogitsLoss(reduction='mean', weight=None, pos_weight=None)[源代码]

输入经过sigmoid激活函数后作为预测值,BCEWithLogitsLoss 计算预测值和目标值之间的二值交叉熵损失。

将输入 input 设置为 \(X\),输入 target\(Y\),输出为 \(L\)。则公式如下:

\[p_{ij} = sigmoid(X_{ij}) = \frac{1}{1 + e^{-X_{ij}}}\]
\[L_{ij} = -[Y_{ij} \cdot \log(p_{ij}) + (1 - Y_{ij}) \cdot \log(1 - p_{ij})]\]

然后,

\[\begin{split}\ell(x, y) = \begin{cases} L, & \text{if reduction} = \text{'none';}\\ \operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\ \operatorname{sum}(L), & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]
参数:
  • reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选 'none''mean''sum' ,默认值: 'mean'

    • 'none':不应用规约方法。

    • 'mean':计算输出元素的加权平均值。

    • 'sum':计算输出元素的总和。

  • weight (Tensor, 可选) - 指定每个批次二值交叉熵的权重。如果不是None,将进行广播,其shape与 input 的shape保持一致,数据类型为float16、float32或bfloat16(仅Atlas A2训练系列产品支持)。默认值: None

  • pos_weight (Tensor, 可选) - 指定正样本的权重。是一个长度等于分类数的向量。如果不是None,将进行广播,其shape与 input 的shape保持一致,数据类型必须为float16、float32或bfloat16(仅Atlas A2训练系列产品支持)。默认值: None

输入:
  • input (Tensor) - 输入预测值Tensor,shape \((N, *)\) ,其中 \(*\) 代表任意数量的附加维度。数据类型必须为float16、float32或bfloat16(仅Atlas A2训练系列产品支持)。

  • target (Tensor) - 输入目标值Tensor,shape \((N, *)\) ,其中 \(*\) 代表任意数量的附加维度。与 input 的shape和数据类型相同。

输出:

Tensor或Scalar,如果 reduction'none' ,其shape需和 input 相同。否则,将返回Scalar。

异常:
  • TypeError - inputtarget 的不为Tensor。

  • TypeError - inputtarget 的数据类型不是float16、float32或bfloat16。

  • TypeError - weightpos_weight 是 Parameter。

  • TypeError - weightpos_weight 的数据类型不是float16、float32或bfloat16。

  • TypeError - reduction 的数据类型不是string。

  • ValueError - weightpos_weight 不能广播到shape为 input 的Tensor。

  • ValueError - reduction 不为 'none''mean''sum'

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore as ms
>>> import mindspore.nn as nn
>>> import numpy as np
>>> input = ms.Tensor(np.array([[-0.8, 1.2, 0.7], [-0.1, -0.4, 0.7]]).astype(np.float32))
>>> target = ms.Tensor(np.array([[0.3, 0.8, 1.2], [-0.6, 0.1, 2.2]]).astype(np.float32))
>>> loss = nn.BCEWithLogitsLoss()
>>> output = loss(input, target)
>>> print(output)
0.3463612