mindspore.nn.CrossEntropyLoss
- class mindspore.nn.CrossEntropyLoss(weight=None, ignore_index=- 100, reduction='mean', label_smoothing=0.0)[源代码]
计算预测值和目标值之间的交叉熵损失。
CrossEntropyLoss支持两种不同的目标值(target):
类别索引 (int),取值范围为
其中 为类别数,当reduction为'none'
时,交叉熵损失公式如下:其中,
表示预测值, 表示目标值, 表示权重,N表示batch size, 限定范围为[0, C-1],表示类索引,其中 表示类的数量。若reduction不为
'none'
(默认为'mean'
),则类别概率 (float),用于目标值为多个类别标签的情况。当reduction为
'none'
时,交叉熵损失公式如下:其中,
表示预测值, 表示目标值, 表示权重,N表示batch size, 限定范围为[0, C-1],表示类索引,其中 表示类的数量。若reduction不为
'none'
(默认为'mean'
),则
- 参数:
weight (Tensor) - 指定各类别的权重。若值不为None,则shape为
。数据类型仅支持float32或float16。默认值:None
。ignore_index (int) - 指定target中需要忽略的值(一般为填充值),使其不对梯度产生影响。默认值:
-100
。reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选
'none'
、'mean'
、'sum'
,默认值:'mean'
。'none'
:不应用规约方法。'mean'
:计算输出元素的加权平均值。'sum'
:计算输出元素的总和。
label_smoothing (float) - 标签平滑值,用于计算Loss时防止模型过拟合的正则化手段。取值范围为[0.0, 1.0]。默认值:
0.0
。
- 输入:
logits (Tensor) - 输入预测值,shape为
、 或 (针对高维数据)。输入值需为对数概率。数据类型仅支持float32或float16。labels (Tensor) - 输入目标值。若目标值为类别索引,则shape为
、 或 ,数据类型仅支持int32。 若目标值为类别概率,则shape为 、 或 ,数据类型仅支持float32或float16。
- 返回:
Tensor,一个数据类型与logits相同的Tensor。
- 异常:
TypeError - weight 不是Tensor。
TypeError - weight 的dtype既不是float16,也不是float32。
TypeError - ignore_index 不是int。
ValueError - reduction 不为
'mean'
、'sum'
或'none'
。TypeError - label_smoothing 不是float。
TypeError - logits 不是Tensor。
TypeError - labels 不是Tensor。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> import mindspore as ms >>> import mindspore.nn as nn >>> import numpy as np >>> # Case 1: Indices labels >>> inputs = ms.Tensor(np.random.randn(3, 5), ms.float32) >>> target = ms.Tensor(np.array([1, 0, 4]), ms.int32) >>> loss = nn.CrossEntropyLoss() >>> output = loss(inputs, target) >>> # Case 2: Probability labels >>> inputs = ms.Tensor(np.random.randn(3, 5), ms.float32) >>> target = ms.Tensor(np.random.randn(3, 5), ms.float32) >>> loss = nn.CrossEntropyLoss() >>> output = loss(inputs, target)