mindspore.mint.nn.functional.binary_cross_entropy

mindspore.mint.nn.functional.binary_cross_entropy(input, target, weight=None, reduction='mean')[源代码]

计算预测值 input 和 目标值 target 之间的二值交叉熵(度量两个概率分布间的差异性信息)损失。

input 设置为 \(x\)target 设置为 \(y\) ,输出设置为 \(\ell(x, y)\) ,第n个batch二值交叉熵的权重为 \(w_n\)。则,

\[L = \{l_1,\dots,l_N\}^\top, \quad l_n = - w_n \left[ y_n \cdot \log x_n + (1 - y_n) \cdot \log (1 - x_n) \right]\]

其中,\(L\) 表示所有batch_size的loss值,\(l\) 表示一个batch_size的loss值,\(n\) 表示在 \(1-N\) 范围内的一个batch_size。

\[\begin{split}\ell(x, y) = \begin{cases} L, & \text{if reduction} = \text{'none';}\\ \operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\ \operatorname{sum}(L), & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]

警告

  • input 的值必须要在0-1范围内。

参数:
  • input (Tensor) - 输入预测值,其数据类型为float16或float32。

  • target (Tensor) - 输入目标值,shape与 input 相同。数据类型为float16或float32。

  • weight (Tensor, 可选) - 指定每个批次二值交叉熵的权重。支持广播,使其shape与 input 的shape保持一致。数据类型必须为float16或float32。默认值: None 。若为 None ,损失函数将不会考虑任何样本的权重,每个样本在计算损失时被视为具有相同的重要性。

  • reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选 'none''mean''sum' ,默认值: 'mean'

    • 'none':不应用规约方法。

    • 'mean':计算输出元素的加权平均值。

    • 'sum':计算输出元素的总和。

返回:

Tensor或Scalar,如果 reduction'none' ,则为shape和数据类型与输入 input 相同的Tensor。否则,输出为Scalar。

异常:
  • TypeError - 输入 inputtargetweight 不为Tensor。

  • TypeError - 输入 inputtargetweight 的数据类型既不是float16也不是float32。

  • ValueError - reduction 不为 'none''mean''sum'

  • ValueError - target 的shape大小与 input 或者 weight 不相同。

支持平台:

Ascend

样例:

>>> import mindspore
>>> import numpy as np
>>> from mindspore import Tensor, mint
>>> input = Tensor(np.array([0.2, 0.7, 0.1]), mindspore.float32)
>>> target = Tensor(np.array([0., 1., 0.]), mindspore.float32)
>>> weight = Tensor(np.array([1, 2, 2]), mindspore.float32)
>>> output = mint.nn.functional.binary_cross_entropy(input, target, weight)
>>> print(output)
0.38240486