mindspore.amp.FixedLossScaleManager
- class mindspore.amp.FixedLossScaleManager(loss_scale=128.0, drop_overflow_update=True)[源代码]
损失缩放系数不变的管理器,继承自
mindspore.amp.LossScaleManager
。- 参数:
loss_scale (float) - 梯度放大系数。注:如果将 drop_overflow_update 设为False,则定义优化器时需要将优化器的 loss_scale 设为相同的值。默认值:128.0。
drop_overflow_update (bool) - 出现溢出时,是否执行优化器。如果值为True,则出现溢出时不会执行优化器。默认值:True。
样例:
>>> import mindspore as ms >>> from mindspore import amp, nn >>> >>> net = Net() >>> #1) Drop the parameter update if there is an overflow >>> loss_scale_manager = amp.FixedLossScaleManager() >>> optim = nn.Momentum(params=net.trainable_params(), learning_rate=0.1, momentum=0.9) >>> model = ms.Model(net, loss_scale_manager=loss_scale_manager, optimizer=optim) >>> >>> #2) Execute parameter update even if overflow occurs >>> loss_scale = 1024.0 >>> loss_scale_manager = amp.FixedLossScaleManager(loss_scale, False) >>> optim = nn.Momentum(params=net.trainable_params(), learning_rate=0.1, momentum=0.9, loss_scale=loss_scale) >>> model = ms.Model(net, loss_scale_manager=loss_scale_manager, optimizer=optim)
- get_drop_overflow_update()[源代码]
返回 drop_overflow_update ,该值表示是否在发生溢出时放弃本轮参数更新。
- 返回:
bool, drop_overflow_update 的值。
- get_update_cell()[源代码]
返回用于更新 loss_scale 值的
mindspore.nn.Cell
实例,mindspore.nn.TrainOneStepWithLossScaleCell
会调用该实例。该类使用固定的梯度放大系数,因此该实例不执行任何操作。- 返回:
None或 Cell 。当 drop_overflow_update 为True时,返回
mindspore.nn.FixedLossScaleUpdateCell
实例,当 drop_overflow_update 为False时,返回None。
- update_loss_scale(overflow)[源代码]
更新loss scale值。类
mindspore.amp.FixedLossScaleManager
中,该方法不执行任何操作。- 参数:
overflow (bool) - 表示是否溢出。