文档反馈

问题文档片段

问题文档片段包含公式时,显示为空格。

提交类型
issue

有点复杂...

找人问问吧。

请选择提交类型

问题类型
规范和低错类

- 规范和低错类:

- 错别字或拼写错误,标点符号使用错误、公式错误或显示异常。

- 链接错误、空单元格、格式错误。

- 英文中包含中文字符。

- 界面和描述不一致,但不影响操作。

- 表述不通顺,但不影响理解。

- 版本号不匹配:如软件包名称、界面版本号。

易用性

- 易用性:

- 关键步骤错误或缺失,无法指导用户完成任务。

- 缺少主要功能描述、关键词解释、必要前提条件、注意事项等。

- 描述内容存在歧义指代不明、上下文矛盾。

- 逻辑不清晰,该分类、分项、分步骤的没有给出。

正确性

- 正确性:

- 技术原理、功能、支持平台、参数类型、异常报错等描述和软件实现不一致。

- 原理图、架构图等存在错误。

- 命令、命令参数等错误。

- 代码片段错误。

- 命令无法完成对应功能。

- 界面错误,无法指导操作。

- 代码样例运行报错、运行结果不符。

风险提示

- 风险提示:

- 对重要数据或系统存在风险的操作,缺少安全提示。

内容合规

- 内容合规:

- 违反法律法规,涉及政治、领土主权等敏感词。

- 内容侵权。

请选择问题类型

问题描述

点击输入详细问题描述,以帮助我们快速定位问题。

mindspore.nn.CTCLoss

class mindspore.nn.CTCLoss(blank=0, reduction='mean', zero_infinity=False)[源代码]

CTCLoss损失函数。

关于CTCLoss算法详细介绍,请参考 Connectionist Temporal Classification: Labeling Unsegmented Sequence Data withRecurrent Neural Networks

参数:
  • blank (int) - 空白标签。默认值:0。

  • reduction (str) - 指定输出结果的计算方式。可选值为”none”、”mean”或”sum”。默认值:”mean”。

  • zero_infinity (bool) - 是否设置无限损失和相关梯度为零。默认值:False。

输入:
  • log_probs (Tensor) - 输入Tensor,shape (T,N,C)(T,C) 。其中T表示输入长度,N表示批次大小,C是分类数。T,N,C均为正整数。

  • targets (Tensor) - 目标Tensor,shape (N,S) 或 (sum( target_lengths ))。其中S表示最大目标长度。

  • input_lengths (Union[tuple, Tensor, int]) - shape为N的Tensor或tuple或者是一个正整数。表示输入长度。

  • target_lengths (Union[tuple, Tensor, int]) - shape为N的Tensor或tuple或者是一个正整数。表示目标长度。

输出:
  • neg_log_likelihood (Tensor) - 对每一个输入节点可微调的损失值。

异常:
  • TypeError - zero_infinity 不是布尔值, reduction 不是字符串。

  • TypeError - log_probs 的数据类型不是float或double。

  • TypeError - targetsinput_lengthstarget_lengths 数据类型不是int32或int64。

  • ValueError - reduction 不为”none”,”mean”或”sum”。

  • ValueError - targetsinput_lengthstarget_lengths 的数据类型是不同的。

  • ValueError - blank 值不介于0到C之间。C是 log_probs 的分类数。

  • ValueError - input_lengths 的值大于C。C是 log_probs 的分类数。

  • ValueError - target_lengths[i] 的值不介于0到 input_length[i] 之间。

支持平台:

Ascend CPU

样例:

>>> import numpy as np
>>> from mindspore import Tensor
>>> from mindspore import dtype as mstype
>>> from mindspore.nn.loss import CTCLoss
>>> T = 5      # Input sequence length
>>> C = 2      # Number of classes
>>> N = 2      # Batch size
>>> S = 3      # Target sequence length of longest target in batch (padding length)
>>> S_min = 2  # Minimum target length, for demonstration purposes
>>> arr = np.arange(T*N*C).reshape((T, N, C))
>>> ms_input = Tensor(arr, dtype=mstype.float32)
>>> input_lengths = np.full(shape=(N), fill_value=T)
>>> input_lengths = Tensor(input_lengths, dtype=mstype.int32)
>>> target_lengths = np.full(shape=(N), fill_value=S_min)
>>> target_lengths = Tensor(target_lengths, dtype=mstype.int32)
>>> target = np.random.randint(1, C, size=(N, S))
>>> target = Tensor(target, dtype=mstype.int32)
>>> ctc_loss = CTCLoss(blank=0, reduction='none', zero_infinity=False)
>>> loss = ctc_loss(ms_input, target, input_lengths, target_lengths)
>>> print(loss)
Tensor(shape=[2], dtype=Float32, value= [-4.57949715e+001, -5.57949677e+001])
>>> arr = np.arange(T*C).reshape((T, C))
>>> ms_input = Tensor(arr, dtype=mstype.float32)
>>> input_lengths = T
>>> target_lengths = S_min
>>> target = np.random.randint(1, C, size=(S_min,))
>>> target = Tensor(target, dtype=mstype.int32)
>>> ctc_loss = CTCLoss(blank=0, reduction='none', zero_infinity=False)
>>> loss = ctc_loss(ms_input, target, input_lengths, target_lengths)
>>> print(loss)
Tensor(shape=[1], dtype=Float32, value= [-2.57949677e+001])