mindspore.ops.cross_entropy

mindspore.ops.cross_entropy(inputs, target, weight=None, ignore_index=- 100, reduction='mean', label_smoothing=0.0)[源代码]

获取预测值和目标值之间的交叉熵损失。

cross_entropy方法支持两种不同的目标值(target):

  • 类别索引 (int),取值范围为 \([0, C)\) 其中 \(C\) 为类别数,当reduction为’none’时,交叉熵损失公式如下:

    \[\ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad l_n = - w_{y_n} \log \frac{\exp(x_{n,y_n})}{\sum_{c=1}^C \exp(x_{n,c})} \cdot \mathbb{1}\{y_n \not= \text{ignore_index}\}\]

    其中, \(x\) 表示预测值, \(t\) 表示目标值, \(w\) 表示权重,N表示batch size, \(c\) 限定范围为[0, C-1],表示类索引,其中 \(C\) 表示类的数量。

    若reduction不为’none’(默认为’mean’),则

    \[\begin{split}\ell(x, y) = \begin{cases} \sum_{n=1}^N \frac{1}{\sum_{n=1}^N w_{y_n} \cdot \mathbb{1}\{y_n \not= \text{ignore_index}\}} l_n, & \text{if reduction} = \text{'mean',}\\ \sum_{n=1}^N l_n, & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]
  • 类别概率 (float),用于目标值为多个类别标签的情况。当reduction为’none’时,交叉熵损失公式如下:

    \[\ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad l_n = - \sum_{c=1}^C w_c \log \frac{\exp(x_{n,c})}{\sum_{i=1}^C \exp(x_{n,i})} y_{n,c}\]

    其中, \(x\) 表示预测值, \(t\) 表示目标值, \(w\) 表示权重,N表示batch size, \(c\) 限定范围为[0, C-1],表示类索引,其中 \(C\) 表示类的数量。

    若reduction不为’none’(默认为’mean’),则

    \[\begin{split}\ell(x, y) = \begin{cases} \frac{\sum_{n=1}^N l_n}{N}, & \text{if reduction} = \text{'mean',}\\ \sum_{n=1}^N l_n, & \text{if reduction} = \text{'sum'.} \end{cases}\end{split}\]
参数:
  • inputs (Tensor) - 输入预测值,shape为 \((N, C)\)\((N, C, H, W)\) (针对二维数据), 或 \((N, C, d_1, d_2, ..., d_K)\) (针对高维数据)。inputs 需为对数概率。数据类型仅支持float32或float16。

  • target (Tensor) - 输入目标值,shape为 \((N)\)\((N, d_1, d_2, ..., d_K)\) (针对高维数据)。数据类型仅支持int32。

  • weight (Tensor) - 指定各类别的权重。若值不为None,则shape为 (C,)。 数据类型仅支持float32或float16。默认值: None。

  • ignore_index (int) - 指定target中需要忽略的值(一般为填充值),使其不对梯度产生影响。默认值:-100。

  • reduction (str) - 指定应用于输出结果的计算方式,比如’none’、’mean’、’sum’,默认值:’mean’。

  • label_smoothing (float) - 标签平滑值,用于计算Loss时防止模型过拟合的正则化手段。取值范围为[0.0, 1.0]。默认值:0.0。

返回:

Tensor,数据类型与 inputs 相同。

支持平台:

Ascend GPU CPU

样例:

>>> # Case 1: Indices labels
>>> inputs = mindspore.Tensor(np.random.randn(3, 5), mindspore.float32)
>>> target = mindspore.Tensor(np.array([1, 0, 4]), mindspore.int32)
>>> output = ops.cross_entropy(inputs, target)
>>> # Case 2: Probability labels
>>> inputs = mindspore.Tensor(np.random.randn(3, 5), mindspore.float32)
>>> target = mindspore.Tensor(np.random.randn(3, 5), mindspore.float32)
>>> output = ops.cross_entropy(inputs, target)