mindspore.nn.MultiClassDiceLoss

class mindspore.nn.MultiClassDiceLoss(weights=None, ignore_indiex=None, activation='softmax')[源代码]

对于多标签问题,可以将标签通过one-hot编码转换为多个二分类标签。每个通道可以看做是一个二分类问题,所以损失可以通过先计算每个类别的二分类的 mindspore.nn.DiceLoss 损失,再计算各二分类损失的平均值得到。

参数:
  • weights (Union[Tensor, None]) - Shape为 \((num\_classes, dim)\) 的Tensor。权重shape[0]应等于标签shape[1]。默认值:None。

  • ignore_indiex (Union[int, None]) - 指定需要忽略的类别序号,如果为None,计算所有类别的Dice Loss值。默认值:None。

  • activation (Union[str, Cell]) - 应用于全连接层输出的激活函数,如’ReLU’。取值范围:[‘softmax’, ‘logsoftmax’, ‘relu’, ‘relu6’, ‘tanh’, ‘Sigmoid’]。默认值:’softmax’。

输入:
  • logits (Tensor) - shape为 \((N, C, *)\) 的Tensor,其中 \(*\) 表示任意数量的附加维度。logits维度应大于1。数据类型必须为float16或float32。

  • labels (Tensor) - shape为 \((N, C, *)\) 的Tensor,与 logits 的shape相同。标签维度应大于1。数据类型必须为float16或float32。

输出:

Tensor,输出为每个样本采样通过MultiClassDiceLoss函数计算所得。

异常:
  • ValueError - logitslabels 的shape不同。

  • TypeError - logitslabels 的类型不是Tensor。

  • ValueError - logitslabels 的维度小于2。

  • ValueError - weights 的shape[0]和 labels 的shape[1]不相等。

  • ValueError - weights 是Tensor,但其维度不是2。

支持平台:

Ascend GPU CPU

样例:

>>> loss = nn.MultiClassDiceLoss(weights=None, ignore_indiex=None, activation="softmax")
>>> logits = Tensor(np.array([[0.2, 0.5, 0.7], [0.3, 0.1, 0.5], [0.9, 0.6, 0.3]]), mstype.float32)
>>> labels = Tensor(np.array([[0, 1, 0], [1, 0, 0], [0, 0, 1]]), mstype.float32)
>>> output = loss(logits, labels)
>>> print(output)
0.54958105