mindspore.experimental.optim.SGD
- class mindspore.experimental.optim.SGD(params, lr, momentum=0, dampening=0, weight_decay=0.0, nesterov=False, *, maximize=False)[源代码]
- 随机梯度下降算法。 \[v_{t+1} = u \ast v_{t} + gradient \ast (1-dampening)\]- 如果nesterov为True: \[p_{t+1} = p_{t} - lr \ast (gradient + u \ast v_{t+1})\]- 如果nesterov为False: \[p_{t+1} = p_{t} - lr \ast v_{t+1}\]- 需要注意的是,对于训练的第一步 \(v_{t+1} = gradient\)。其中,p、v和u分别表示 parameters、accum 和 momentum。 - 警告 - 这是一个实验性的优化器接口,需要和 LRScheduler 下的动态学习率接口配合使用。 - 参数:
- params (Union[list(Parameter), list(dict)]) - 网络参数的列表或指定了参数组的列表。 
- lr (Union[int, float, Tensor]) - 学习率。 
- momentum (Union[int, float], 可选) - 动量值。默认值: - 0。
- weight_decay (float, 可选) - 权重衰减(L2 penalty),必须大于等于0。默认值: - 0.。
- dampening (Union[int, float], 可选) - 动量的阻尼值。默认值: - 0。
- nesterov (bool, 可选) - 启用Nesterov动量。如果使用Nesterov,动量必须为正,阻尼必须等于0.0。默认值: - False。
 
- 关键字参数:
- maximize (bool, 可选) - 是否根据目标函数最大化网络参数。默认值: - False。
 
- 输入:
- gradients (tuple[Tensor]) - 网络权重的梯度。 
 
- 异常:
- ValueError - 学习率不是int、float或Tensor。 
- ValueError - 学习率小于0。 
- ValueError - - momentum和- weight_decay值小于0.0。
- ValueError - - momentum,- dampening和- weight_decay不是int或float。
- ValueError - - nesterov和- maximize不是布尔类型。
- ValueError - - nesterov为True时,- momentum不为正或- dampening不为0。
 
- 支持平台:
- Ascend- GPU- CPU
 - 样例: - >>> import mindspore >>> from mindspore import nn >>> from mindspore.experimental import optim >>> # Define the network structure of LeNet5. Refer to >>> # https://gitee.com/mindspore/docs/blob/r2.3.0rc2/docs/mindspore/code/lenet.py >>> net = LeNet5() >>> loss_fn = nn.SoftmaxCrossEntropyWithLogits(sparse=True) >>> optimizer = optim.SGD(net.trainable_params(), lr=0.1) >>> def forward_fn(data, label): ... logits = net(data) ... loss = loss_fn(logits, label) ... return loss, logits >>> grad_fn = mindspore.value_and_grad(forward_fn, None, optimizer.parameters, has_aux=True) >>> def train_step(data, label): ... (loss, _), grads = grad_fn(data, label) ... optimizer(grads) ... return loss