mindspore.mint.nn.functional.binary_cross_entropy
- mindspore.mint.nn.functional.binary_cross_entropy(input, target, weight=None, reduction='mean')[源代码]
计算预测值 input 和 目标值 target 之间的二值交叉熵(度量两个概率分布间的差异性信息)损失。
将 input 设置为 \(x\) , target 设置为 \(y\) ,输出设置为 \(\ell(x, y)\) ,第n个batch二值交叉熵的权重为 \(w_n\)。则,
\[L = \{l_1,\dots,l_N\}^\top, \quad l_n = - w_n \left[ y_n \cdot \log x_n + (1 - y_n) \cdot \log (1 - x_n) \right]\]其中,\(L\) 表示所有batch_size的loss值,\(l\) 表示一个batch_size的loss值,\(n\) 表示在 \(1-N\) 范围内的一个batch_size。
\[\begin{split}\ell(x, y) = \begin{cases} L, & \text{if reduction} = \text{'none';}\\ \operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\ \operatorname{sum}(L), & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]警告
input 的值必须要在0-1范围内。
- 参数:
input (Tensor) - 输入预测值,其数据类型为float16或float32。
target (Tensor) - 输入目标值,shape与 input 相同。数据类型为float16或float32。
weight (Tensor, 可选) - 指定每个批次二值交叉熵的权重。支持广播,使其shape与 input 的shape保持一致。数据类型必须为float16或float32。默认值:
None
。若为None
,损失函数将不会考虑任何样本的权重,每个样本在计算损失时被视为具有相同的重要性。reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选
'none'
、'mean'
、'sum'
,默认值:'mean'
。'none'
:不应用规约方法。'mean'
:计算输出元素的加权平均值。'sum'
:计算输出元素的总和。
- 返回:
Tensor或Scalar,如果 reduction 为
'none'
,则为shape和数据类型与输入 input 相同的Tensor。否则,输出为Scalar。- 异常:
TypeError - 输入 input , target , weight 不为Tensor。
TypeError - 输入 input , target , weight 的数据类型既不是float16也不是float32。
ValueError - reduction 不为
'none'
、'mean'
或'sum'
。ValueError - target 的shape大小与 input 或者 weight 不相同。
- 支持平台:
Ascend
样例:
>>> import mindspore >>> import numpy as np >>> from mindspore import Tensor, mint >>> input = Tensor(np.array([0.2, 0.7, 0.1]), mindspore.float32) >>> target = Tensor(np.array([0., 1., 0.]), mindspore.float32) >>> weight = Tensor(np.array([1, 2, 2]), mindspore.float32) >>> output = mint.nn.functional.binary_cross_entropy(input, target, weight) >>> print(output) 0.38240486