mindspore.train.CheckpointConfig

class mindspore.train.CheckpointConfig(save_checkpoint_steps=1, save_checkpoint_seconds=0, keep_checkpoint_max=5, keep_checkpoint_per_n_minutes=0, integrated_save=True, async_save=False, saved_network=None, append_info=None, enc_key=None, enc_mode='AES-GCM', exception_save=False, **kwargs)[源代码]

保存checkpoint时的配置策略。

说明

在训练过程中,如果数据集是通过数据通道传输的,建议将 save_checkpoint_steps 设为循环下沉step数量的整数倍数。否则,保存checkpoint的时机可能会有偏差。建议同时只设置一种触发保存checkpoint策略和一种保留checkpoint文件总数策略。如果同时设置了 save_checkpoint_stepssave_checkpoint_seconds ,则 save_checkpoint_seconds 无效。如果同时设置了 keep_checkpoint_maxkeep_checkpoint_per_n_minutes ,则 keep_checkpoint_per_n_minutes 无效。

参数:
  • save_checkpoint_steps (int) - 每隔多少个step保存一次checkpoint。默认值: 1

  • save_checkpoint_seconds (int) - 每隔多少秒保存一次checkpoint。不能同时与 save_checkpoint_steps 一起使用。默认值: 0

  • keep_checkpoint_max (int) - 最多保存多少个checkpoint文件。默认值: 5

  • keep_checkpoint_per_n_minutes (int) - 每隔多少分钟保存一个checkpoint文件。不能同时与 keep_checkpoint_max 一起使用。默认值: 0

  • integrated_save (bool) - 在自动并行场景下,是否合并保存拆分后的Tensor。合并保存功能仅支持在自动并行场景中使用,在手动并行场景中不支持。默认值: True

  • async_save (bool) - 是否异步执行保存checkpoint文件。默认值: False

  • saved_network (Cell) - 保存在checkpoint文件中的网络。如果 saved_network 没有被训练,则保存 saved_network 的初始值。默认值: None

  • append_info (list) - 保存在checkpoint文件中的信息。支持”epoch_num”、”step_num”和dict类型。dict的key必须是str,dict的value必须是int、float、bool、string、Parameter或Tensor中的一个。默认值: None

  • enc_key (Union[None, bytes]) - 用于加密的字节类型key。如果值为None,则不需要加密。默认值: None

  • enc_mode (str) - 仅当 enc_key 不设为None时,该参数有效。指定了加密模式,目前支持AES-GCM,AES-CBC和SM4-CBC。默认值: 'AES-GCM'

  • exception_save (bool) - 当有异常发生时,是否保存当前checkpoint文件。默认值: False

  • kwargs (dict) - 配置选项字典。

    • incremental (bool): 是否可以增量导出MapParameter的检查点。

异常:
  • ValueError - 输入参数的类型不正确。

样例:

>>> from mindspore import nn
>>> from mindspore.train import Model, CheckpointConfig, ModelCheckpoint
>>>
>>> # Define the network structure of LeNet5. Refer to
>>> # https://gitee.com/mindspore/docs/blob/r2.1/docs/mindspore/code/lenet.py
>>> net = LeNet5()
>>> loss = nn.SoftmaxCrossEntropyWithLogits(sparse=True, reduction='mean')
>>> optim = nn.Momentum(net.trainable_params(), 0.01, 0.9)
>>> model = Model(net, loss_fn=loss, optimizer=optim)
>>> # Create the dataset taking MNIST as an example. Refer to
>>> # https://gitee.com/mindspore/docs/blob/r2.1/docs/mindspore/code/mnist.py
>>> dataset = create_dataset()
>>> config = CheckpointConfig(save_checkpoint_seconds=100, keep_checkpoint_per_n_minutes=5, saved_network=net)
>>> config.save_checkpoint_steps
1
>>> config.save_checkpoint_seconds
100
>>> config.keep_checkpoint_max
5
>>> config.keep_checkpoint_per_n_minutes
5
>>> config.integrated_save
True
>>> config.async_save
False
>>> config.saved_network
>>> config.enc_key
>>> config.enc_mode
'AES-GCM'
>>> config.append_dict
>>> config.get_checkpoint_policy
>>> ckpoint_cb = ModelCheckpoint(prefix='LeNet5', directory='./checkpoint', config=config)
>>> model.train(10, dataset, callbacks=ckpoint_cb)
property append_dict

获取需要额外保存到checkpoint中的字典的值。

返回:

Dict: 字典中的值。

property async_save

获取是否异步保存checkpoint。

返回:

Bool: 是否异步保存checkpoint。

property enc_key

获取加密的key值。

返回:

(None, bytes): 加密的key值。

property enc_mode

获取加密模式。

返回:

str: 加密模式。

get_checkpoint_policy()[源代码]

获取checkpoint的保存策略。

返回:

Dict: checkpoint的保存策略。

property integrated_save

获取是否合并保存拆分后的Tensor。

返回:

Bool: 获取是否合并保存拆分后的Tensor。

property keep_checkpoint_max

获取最多保存checkpoint文件的数量。

返回:

Int: 最多保存checkpoint文件的数量。

property keep_checkpoint_per_n_minutes

获取每隔多少分钟保存一个checkpoint文件。

返回:

Int: 每隔多少分钟保存一个checkpoint文件。

property map_param_inc

获取是否增量保存MapParameter。

返回:

Bool: 是否增量保存MapParameter。

property save_checkpoint_seconds

获取每隔多少秒保存一次checkpoint文件。

返回:

Int: 每隔多少秒保存一次checkpoint文件。

property save_checkpoint_steps

获取每隔多少个step保存一次checkpoint文件。

返回:

Int: 每隔多少个step保存一次checkpoint文件。

property saved_network

获取需要保存的网络。

返回:

Cell: 需要保存的网络。