mindspore.nn.CTCLoss

class mindspore.nn.CTCLoss(blank=0, reduction='mean', zero_infinity=False)[源代码]

CTCLoss损失函数。主要用来计算连续未分段的时间序列与目标序列之间的损失。

关于CTCLoss算法详细介绍,请参考 Connectionist Temporal Classification: Labeling Unsegmented Sequence Data withRecurrent Neural Networks

参数:
  • blank (int,可选) - 空白标签。默认值:0

  • reduction (str,可选) - 对输出应用归约方法。可选值为 "none""mean""sum" 。默认值: 'mean'

  • zero_infinity (bool,可选) - 在损失无限大的时候,是否将无限损失和相关梯度置为零。默认值: False

输入:
  • log_probs (Tensor) - 预测值,shape \((T, N, C)\)\((T, C)\) 。其中T表示输入长度,N表示批次大小,C是分类数。T,N,C均为正整数。

  • targets (Tensor) - 目标值,shape \((N, S)\) 或 (sum( target_lengths ))。其中S表示最大目标长度。

  • input_lengths (Union[tuple, Tensor]) - shape为N的Tensor或tuple。表示输入长度。

  • target_lengths (Union[tuple, Tensor]) - shape为N的Tensor或tuple。表示目标长度。

输出:
  • neg_log_likelihood (Tensor) - 对每一个输入节点可微调的损失值。

异常:
  • TypeError - log_probstargets 不是Tensor。

  • TypeError - zero_infinity 不是布尔值, reduction 不是字符串。

  • TypeError - log_probs 的数据类型不是float或double。

  • TypeError - targetsinput_lengthstarget_lengths 数据类型不是int32或int64。

  • ValueError - reduction 不为”none”,”mean”或”sum”。

  • ValueError - blank 值不介于0到C之间。C是 log_probs 的分类数。

  • ValueError - 当 log_prob 的shape是 \((T, C)\) 时, target 的维度不是1或2。

  • ValueError - 当 log_prob 的shape是 \((T, C)\) 时, target 的首个维度的长度不是1。

  • RuntimeError - input_lengths 的值大于T。T是 log_probs 的长度。

  • RuntimeError - target_lengths[i] 的值不介于0到 input_length[i] 之间。

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore as ms
>>> import mindspore.nn as nn
>>> import numpy as np
>>> T = 5      # Input sequence length
>>> C = 2      # Number of classes
>>> N = 2      # Batch size
>>> S = 3      # Target sequence length of longest target in batch (padding length)
>>> S_min = 2  # Minimum target length, for demonstration purposes
>>> arr = np.arange(T*N*C).reshape((T, N, C))
>>> ms_input = ms.Tensor(arr, dtype=ms.float32)
>>> input_lengths = np.full(shape=(N), fill_value=T)
>>> input_lengths = ms.Tensor(input_lengths, dtype=ms.int32)
>>> target_lengths = np.full(shape=(N), fill_value=S_min)
>>> target_lengths = ms.Tensor(target_lengths, dtype=ms.int32)
>>> target = np.random.randint(1, C, size=(N, S))
>>> target = ms.Tensor(target, dtype=ms.int32)
>>> ctc_loss = nn.CTCLoss(blank=0, reduction='none', zero_infinity=False)
>>> loss = ctc_loss(ms_input, target, input_lengths, target_lengths)
>>> print(loss)
[-45.79497  -55.794968]
>>> arr = np.arange(T*C).reshape((T, C))
>>> ms_input = ms.Tensor(arr, dtype=ms.float32)
>>> input_lengths = ms.Tensor([T], dtype=ms.int32)
>>> target_lengths = ms.Tensor([S_min], dtype=ms.int32)
>>> target = np.random.randint(1, C, size=(S_min,))
>>> target = ms.Tensor(target, dtype=ms.int32)
>>> ctc_loss = nn.CTCLoss(blank=0, reduction='none', zero_infinity=False)
>>> loss = ctc_loss(ms_input, target, input_lengths, target_lengths)
>>> print(loss)
-25.794968