文档反馈

问题文档片段

问题文档片段包含公式时,显示为空格。

提交类型
issue

有点复杂...

找人问问吧。

请选择提交类型

问题类型
规范和低错类

- 规范和低错类:

- 错别字或拼写错误,标点符号使用错误、公式错误或显示异常。

- 链接错误、空单元格、格式错误。

- 英文中包含中文字符。

- 界面和描述不一致,但不影响操作。

- 表述不通顺,但不影响理解。

- 版本号不匹配:如软件包名称、界面版本号。

易用性

- 易用性:

- 关键步骤错误或缺失,无法指导用户完成任务。

- 缺少主要功能描述、关键词解释、必要前提条件、注意事项等。

- 描述内容存在歧义指代不明、上下文矛盾。

- 逻辑不清晰,该分类、分项、分步骤的没有给出。

正确性

- 正确性:

- 技术原理、功能、支持平台、参数类型、异常报错等描述和软件实现不一致。

- 原理图、架构图等存在错误。

- 命令、命令参数等错误。

- 代码片段错误。

- 命令无法完成对应功能。

- 界面错误,无法指导操作。

- 代码样例运行报错、运行结果不符。

风险提示

- 风险提示:

- 对重要数据或系统存在风险的操作,缺少安全提示。

内容合规

- 内容合规:

- 违反法律法规,涉及政治、领土主权等敏感词。

- 内容侵权。

请选择问题类型

问题描述

点击输入详细问题描述,以帮助我们快速定位问题。

mindspore.nn.NLLLoss

class mindspore.nn.NLLLoss(weight=None, ignore_index=- 100, reduction='mean')[源代码]

计算预测值和目标值之间的负对数似然损失。

reduction=none 时,负对数似然损失公式如下:

(x,t)=L={l1,,lN},ln=wtnxn,tn,wc= weight [c]1{cignore_index}

其中, x 表示预测值, t 表示目标值, w 表示权重, N 表示batch size, c 限定范围为 [0,C1],表示类索引,其中 C 表示类的数量。

reductionnone 时(默认为 'mean' ),则

(x,t)={n=1N1n=1Nwtnln, if reduction = 'mean', n=1Nln, if reduction = 'sum' 
参数:
  • weight (Tensor) - 指定各类别的权重。若值不为None,则shape为 (C,)。数据类型仅支持float32或float16。默认值: None

  • ignore_index (int) - 指定target中需要忽略的值(一般为填充值),使其不对梯度产生影响。默认值: -100

  • reduction (str,可选) - 指定应用于输出结果的规约计算方式,可选 'none''mean''sum' ,默认值: 'mean'

    • "none":不应用规约方法。

    • "mean":计算输出元素的加权平均值。

    • "sum":计算输出元素的总和。

输入:
  • logits (Tensor) - 输入预测值,shape为 (N,C)(N,C,d1,d2,...,dK) (针对 K 维数据)。inputs 需为对数概率。数据类型仅支持float32或float16。

  • labels (Tensor) - 输入目标值,shape为 (N)(N,d1,d2,...,dK) (针对 K 维数据)。 数据类型仅支持int32。

返回:

Tensor,一个数据类型与logits相同的Tensor。

异常:
  • TypeError - weight 不是Tensor。

  • TypeError - weight 的dtype既不是float16,也不是float32。

  • TypeError - ignore_index 不是int。

  • ValueError - reduction 不为 "mean""sum""none"

  • TypeError - logits 不是Tensor。

  • TypeError - labels 不是Tensor。

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore as ms
>>> import mindspore.nn as nn
>>> import numpy as np
>>> logits = ms.Tensor(np.random.randn(3, 5), ms.float32)
>>> labels = ms.Tensor(np.array([1, 0, 4]), ms.int32)
>>> loss = nn.NLLLoss()
>>> output = loss(logits, labels)