mindspore.nn.CrossEntropyLoss
=============================

.. py:class:: mindspore.nn.CrossEntropyLoss(weight=None, ignore_index=-100, reduction='mean', label_smoothing=0.0)

    计算预测值和目标值之间的交叉熵损失。

    CrossEntropyLoss支持两种不同的目标值(target):

    - 类别索引 (int),取值范围为 :math:`[0, C)` 其中 :math:`C` 为类别数,当reduction为 ``'none'`` 时,交叉熵损失公式如下:

      .. math::

          \ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad
          l_n = - w_{y_n} \log \frac{\exp(x_{n,y_n})}{\sum_{c=1}^C \exp(x_{n,c})}
          \cdot \mathbb{1}\{y_n \not= \text{ignore_index}\}

      其中, :math:`x` 表示预测值, :math:`t` 表示目标值, :math:`w` 表示权重,N表示batch size, :math:`c` 限定范围为[0, C-1],表示类索引,其中 :math:`C` 表示类的数量。

      若reduction不为 ``'none'`` (默认为 ``'mean'`` ),则

      .. math::

          \ell(x, y) = \begin{cases}
              \sum_{n=1}^N \frac{1}{\sum_{n=1}^N w_{y_n} \cdot \mathbb{1}\{y_n \not= \text{ignore_index}\}} l_n, &
              \text{if reduction} = \text{'mean',}\\
              \sum_{n=1}^N l_n,  &
              \text{if reduction} = \text{'sum'.}
              \end{cases}

    - 类别概率 (float),用于目标值为多个类别标签的情况。当reduction为 ``'none'`` 时,交叉熵损失公式如下:

      .. math::

          \ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad
          l_n = - \sum_{c=1}^C w_c \log \frac{\exp(x_{n,c})}{\sum_{i=1}^C \exp(x_{n,i})} y_{n,c}

      其中, :math:`x` 表示预测值, :math:`t` 表示目标值, :math:`w` 表示权重,N表示batch size, :math:`c` 限定范围为[0, C-1],表示类索引,其中 :math:`C` 表示类的数量。

      若reduction不为 ``'none'`` (默认为 ``'mean'`` ),则

      .. math::

          \ell(x, y) = \begin{cases}
              \frac{\sum_{n=1}^N l_n}{N}, &
              \text{if reduction} = \text{'mean',}\\
              \sum_{n=1}^N l_n,  &
              \text{if reduction} = \text{'sum'.}
              \end{cases}

    参数:
        - **weight** (Tensor) - 指定各类别的权重。若值不为None,则shape为 :math:`(C,)` 。数据类型仅支持float32或float16。默认值: ``None`` 。
        - **ignore_index** (int) - 指定target中需要忽略的值(一般为填充值),使其不对梯度产生影响。默认值: ``-100`` 。
        - **reduction** (str,可选) - 指定应用于输出结果的规约计算方式,可选 ``'none'`` 、 ``'mean'`` 、 ``'sum'`` ,默认值: ``'mean'`` 。

          - ``'none'``:不应用规约方法。
          - ``'mean'``:计算输出元素的加权平均值。
          - ``'sum'``:计算输出元素的总和。

        - **label_smoothing** (float) - 标签平滑值,用于计算Loss时防止模型过拟合的正则化手段。取值范围为[0.0, 1.0]。默认值: ``0.0`` 。

    输入:
        - **logits** (Tensor) - 输入预测值,shape为 :math:`(C,)` 、 :math:`(N, C)` 或 :math:`(N, C, d_1, d_2, ..., d_K)` (针对高维数据)。输入值需为对数概率。数据类型仅支持float32或float16。
        - **labels** (Tensor) - 输入目标值。若目标值为类别索引,则shape为 :math:`()` 、 :math:`(N)` 或 :math:`(N, d_1, d_2, ..., d_K)` ,数据类型仅支持int32。
          若目标值为类别概率,则shape为 :math:`(C,)` 、 :math:`(N, C)` 或 :math:`(N, C, d_1, d_2, ..., d_K)` ,数据类型仅支持float32或float16。

    返回:
        Tensor,一个数据类型与logits相同的Tensor。

    异常:
        - **TypeError** - `weight` 不是Tensor。
        - **TypeError** - `weight` 的dtype既不是float16,也不是float32。
        - **TypeError** - `ignore_index` 不是int。
        - **ValueError** - `reduction` 不为 ``'mean'`` 、 ``'sum'`` 或 ``'none'`` 。
        - **TypeError** - `label_smoothing` 不是float。
        - **TypeError** - `logits` 不是Tensor。
        - **TypeError** - `labels` 不是Tensor。