mindspore.mint.nn.BCELoss
- class mindspore.mint.nn.BCELoss(weight=None, reduction='mean')[源代码]
计算目标值和预测值之间的二值交叉熵损失值。
将预测值设置为 \(x\) ,目标值设置为 \(y\) ,输出损失设置为 \(\ell(x, y)\) 。
则公式如下:
\[L = \{l_1,\dots,l_n,\dots,l_N\}^\top, \quad l_n = - w_n \left[ y_n \cdot \log x_n + (1 - y_n) \cdot \log (1 - x_n) \right]\]其中N是批次大小。公式如下:
\[\begin{split}\ell(x, y) = \begin{cases} L, & \text{if reduction} = \text{'none';}\\ \operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\ \operatorname{sum}(L), & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]说明
预测值一般是sigmoid函数的输出。因为是二分类,所以目标值应是0或者1。如果 \(x_n\) 是0或1,则上述损失函数是无意义的。
警告
这是一个实验性API,后续可能修改或删除。
- 参数:
weight (Tensor, 可选) - 指定每个批次二值交叉熵的权重。与输入数据的shape和数据类型相同。默认值:
None
。reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选
'none'
、'mean'
、'sum'
,默认值:'mean'
。"none"
:不应用规约方法。"mean"
:计算输出元素的加权平均值。"sum"
:计算输出元素的总和。
- 输入:
input (Tensor) - 预测值Tensor,shape \((N, *)\) ,其中 \(*\) 代表任意数量的附加维度。数据类型必须为float16、float32或bfloat16(仅Atlas A2训练系列产品支持)。
target (Tensor) - 目标值Tensor,shape \((N, *)\) ,其中 \(*\) 代表任意数量的附加维度。与 input 的shape和数据类型相同。
- 输出:
Tensor,数据类型与 input 相同。如果 reduction 为
'none'
,则shape与 input 相同。否则,输出为Scalar的Tensor。- 异常:
TypeError - input,target 或 weight (如果给定)的数据类型不是float16、float32或bfloat16。
ValueError - reduction 不为
'none'
、'mean'
或'sum'
。ValueError - input 的shape与 target 或 weight (如果给定)不同。
- 支持平台:
Ascend
样例:
>>> import mindspore as ms >>> from mindspore import mint >>> import numpy as np >>> weight = ms.Tensor(np.array([[1.0, 2.0, 3.0], [4.0, 3.3, 2.2]]), ms.float32) >>> loss = mint.nn.BCELoss(weight=weight, reduction='mean') >>> input = ms.Tensor(np.array([[0.1, 0.2, 0.3], [0.5, 0.7, 0.9]]), ms.float32) >>> target = ms.Tensor(np.array([[0, 1, 0], [0, 0, 1]]), ms.float32) >>> output = loss(input, target) >>> print(output) 1.8952923