mindspore.experimental.optim.lr_scheduler.ExponentialLR
- class mindspore.experimental.optim.lr_scheduler.ExponentialLR(optimizer, gamma, last_epoch=- 1)[源代码]
每个epoch呈指数衰减的学习率,即乘以 gamma 。注意,这种衰减可能与外部对于学习率的改变同时发生。
警告
这是一个实验性的动态学习率接口,需要和 mindspore.experimental.optim 下的接口配合使用。
- 参数:
optimizer (
mindspore.experimental.optim.Optimizer
) - 优化器实例。gamma (float) - 学习率衰减的乘法因子。
last_epoch (int,可选) - 最后一个epoch的索引。默认值:
-1
。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> from mindspore import nn >>> from mindspore.experimental import optim >>> class Net(nn.Cell): ... def __init__(self): ... super(Net, self).__init__() ... self.fc = nn.Dense(16 * 5 * 5, 120) ... def construct(self, x): ... return self.fc(x) >>> net = Net() >>> optimizer = optim.Adam(net.trainable_params(), 0.01) >>> scheduler = optim.lr_scheduler.ExponentialLR(optimizer, gamma=0.5) >>> for i in range(3): ... scheduler.step() ... current_lr = scheduler.get_last_lr() ... print(current_lr) [Tensor(shape=[], dtype=Float32, value= 0.005)] [Tensor(shape=[], dtype=Float32, value= 0.0025)] [Tensor(shape=[], dtype=Float32, value= 0.00125)]