mindspore.nn.BCELoss

class mindspore.nn.BCELoss(weight=None, reduction='mean')[源代码]

计算目标值和预测值之间的二值交叉熵损失值。

将预测值设置为 x ,目标值设置为 y ,输出损失设置为 (x,y)

则公式如下:

L={l1,,ln,,lN},ln=wn[ynlogxn+(1yn)log(1xn)]

其中N是批次大小。公式如下:

(x,y)={L,if reduction='none';mean(L),if reduction='mean';sum(L),if reduction='sum'.

说明

预测值一般是sigmoid函数的输出。因为是二分类,所以目标值应是0或者1。如果输入是0或1,则上述损失函数是无意义的。

参数:
  • weight (Tensor, 可选) - 指定每个批次二值交叉熵的权重。与输入数据的shape和数据类型相同。默认值: None

  • reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选 'none''mean''sum' ,默认值: 'mean'

    • "none":不应用规约方法。

    • "mean":计算输出元素的加权平均值。

    • "sum":计算输出元素的总和。

输入:
  • logits (Tensor) - 输入预测值Tensor,shape (N,) ,其中 代表任意数量的附加维度。数据类型必须为float16或float32。

  • labels (Tensor) - 输入目标值Tensor,shape (N,) ,其中 代表任意数量的附加维度。与 logits 的shape和数据类型相同。

输出:

Tensor,数据类型与 logits 相同。如果 reduction 为'none',则shape与 logits 相同。否则,输出为Scalar的Tensor。

异常:
  • TypeError - logits 的数据类型,labelsweight (如果给定)既不是float16,也不是float32。

  • ValueError - reduction 不为 'none''mean''sum'

  • ValueError - logits 的shape与 labelsweight (如果给定)不同。

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore as ms
>>> import mindspore.nn as nn
>>> import numpy as np
>>> weight = ms.Tensor(np.array([[1.0, 2.0, 3.0], [4.0, 3.3, 2.2]]), ms.float32)
>>> loss = nn.BCELoss(weight=weight, reduction='mean')
>>> logits = ms.Tensor(np.array([[0.1, 0.2, 0.3], [0.5, 0.7, 0.9]]), ms.float32)
>>> labels = ms.Tensor(np.array([[0, 1, 0], [0, 0, 1]]), ms.float32)
>>> output = loss(logits, labels)
>>> print(output)
1.8952923