mindspore.mint.nn.Dropout

查看源文件
class mindspore.mint.nn.Dropout(p=0.5, inplace=False)[源代码]

随机丢弃层。

Dropout是一种正则化手段,通过阻止神经元节点间的相关性来减少过拟合。该操作根据丢弃概率 p ,在训练过程中随机将一些神经元输出设置为0。并且训练过程中返回值会乘以 \(\frac{1}{1-p}\) 。在推理过程中,此层返回与 x 相同的Tensor。

论文 Dropout: A Simple Way to Prevent Neural Networks from Overfitting 中提出了该技术,并证明其能有效地减少过度拟合,防止神经元共适应。更多详细信息,请参见 Improving neural networks by preventing co-adaptation of feature detectors

说明

  • 训练过程中每步对同一通道(或神经元)独立进行丢弃。

  • p 表示输入Tensor中元素设置成0的概率。

参数:
  • p (float) - 输入神经元丢弃概率,例如,p =0.9,删除90%的神经元。默认值: 0.5

  • inplace (bool) - 若为 True 则启用原地更新功能。默认值: False

输入:
  • x (Tensor) - Dropout的输入。

输出:

Tensor,输出为Tensor,其shape与 x shape相同。

异常:
  • TypeError - p 数据类型不是float。

  • ValueError - x 的shape长度小于1。

支持平台:

Ascend

样例:

>>> import mindspore
>>> from mindspore import Tensor, mint
>>> import numpy as np
>>> x = Tensor(np.ones([2, 2, 3]), mindspore.float32)
>>> net = mint.nn.Dropout(p=0.2)
>>> net.set_train()
>>> output = net(x)
>>> print(output.shape)
(2, 2, 3)