模型参数的保存和加载
Ascend
GPU
CPU
模型导出
初级
中级
高级
概述
在模型训练过程中,可以添加检查点(CheckPoint)用于保存模型的参数,以便进行推理及中断后再训练使用。
使用场景如下:
训练后推理场景
模型训练完毕后保存模型的参数,用于推理或预测操作。
训练过程中,通过实时验证精度,把精度最高的模型参数保存下来,用于预测操作。
再训练场景
进行长时间训练任务时,保存训练过程中的CheckPoint文件,防止任务异常退出后从初始状态开始训练。
Fine-tuning(微调)场景,即训练一个模型并保存参数,基于该模型,面向第二个类似任务进行模型训练。
MindSpore的CheckPoint文件是一个二进制文件,存储了所有训练参数的值。采用了Google的Protocol Buffers机制,与开发语言、平台无关,具有良好的可扩展性。
CheckPoint的protocol格式定义在mindspore/ccsrc/utils/checkpoint.proto
中。
以下通过一个示例来介绍MindSpore保存和加载的功能,网络选取ResNet-50,数据集为MNIST。
模型参数保存
在模型训练的过程中,使用callback机制传入回调函数ModelCheckpoint
对象,可以保存模型参数,生成CheckPoint文件。
通过CheckpointConfig
对象可以设置CheckPoint的保存策略。
保存的参数分为网络参数和优化器参数。
ModelCheckpoint
提供默认配置策略,方便用户快速上手。
具体用法如下:
from mindspore.train.callback import ModelCheckpoint
ckpoint_cb = ModelCheckpoint()
model.train(epoch_num, dataset, callbacks=ckpoint_cb)
用户可以根据具体需求对CheckPoint策略进行配置。 具体用法如下:
from mindspore.train.callback import ModelCheckpoint, CheckpointConfig
config_ck = CheckpointConfig(save_checkpoint_steps=32, keep_checkpoint_max=10)
ckpoint_cb = ModelCheckpoint(prefix='resnet50', directory=None, config=config_ck)
model.train(epoch_num, dataset, callbacks=ckpoint_cb)
上述代码中,首先需要初始化一个CheckpointConfig
类对象,用来设置保存策略。
save_checkpoint_steps
表示每隔多少个step保存一次,keep_checkpoint_max
表示最多保留CheckPoint文件的数量。
prefix
表示生成CheckPoint文件的前缀名,directory
表示存放文件的目录。
创建一个ModelCheckpoint
对象把它传递给model.train方法,就可以在训练过程中使用CheckPoint功能了。
生成的CheckPoint文件如下:
resnet50-graph.meta # 编译后的计算图
resnet50-1_32.ckpt # CheckPoint文件后缀名为’.ckpt’
resnet50-2_32.ckpt # 文件的命名方式表示保存参数所在的epoch和step数
resnet50-3_32.ckpt # 表示保存的是第3个epoch的第32个step的模型参数
…
如果用户使用相同的前缀名,运行多次训练脚本,可能会生成同名CheckPoint文件。
MindSpore为方便用户区分每次生成的文件,会在用户定义的前缀后添加”_”和数字加以区分。
如果想要删除.ckpt
文件时,请同步删除.meta
文件。
例:resnet50_3-2_32.ckpt
表示运行第3次脚本生成的第2个epoch的第32个step的CheckPoint文件。
当保存的单个模型参数较大时(超过64M),会因为Protobuf自身对数据大小的限制,导致保存失败。这时可通过设置环境变量
PROTOCOL_BUFFERS_PYTHON_IMPLEMENTATION=python
解除限制。当执行分布式并行训练任务时,每个进程需要设置不同
directory
参数,用以保存CheckPoint文件到不同的目录,以防文件发生读写错乱。
CheckPoint配置策略
MindSpore提供了两种保存CheckPoint策略: 迭代策略和时间策略,可以通过创建CheckpointConfig
对象设置相应策略。
CheckpointConfig
中共有四个参数可以设置:
save_checkpoint_steps: 表示每隔多少个step保存一个CheckPoint文件,默认值为1。
save_checkpoint_seconds:表示每隔多少秒保存一个CheckPoint文件,默认值为0。
keep_checkpoint_max:表示最多保存多少个CheckPoint文件,默认值为5。
keep_checkpoint_per_n_minutes:表示每隔多少分钟保留一个CheckPoint文件,默认值为0。
save_checkpoint_steps
和keep_checkpoint_max
为迭代策略,根据训练迭代的次数进行配置。
save_checkpoint_seconds
和keep_checkpoint_per_n_minutes
为时间策略,根据训练的时长进行配置。
两种策略不能同时使用,迭代策略优先级高于时间策略,当同时设置时,只有迭代策略可以生效。
当参数显示设置为None
时,表示放弃该策略。
在迭代策略脚本正常结束的情况下,会默认保存最后一个step的CheckPoint文件。
模型参数加载
保存好CheckPoint文件后,就可以对参数进行加载。
用于推理验证
针对仅推理场景可以使用load_checkpoint
把参数直接加载到网络中,以便进行后续的推理验证。
示例代码如下:
resnet = ResNet50()
load_checkpoint("resnet50-2_32.ckpt", net=resnet)
dateset_eval = create_dataset(os.path.join(mnist_path, "test"), 32, 1) # define the test dataset
loss = CrossEntropyLoss()
model = Model(resnet, loss)
acc = model.eval(dataset_eval)
load_checkpoint
方法会把参数文件中的网络参数加载到模型中。加载后,网络中的参数就是CheckPoint保存的。
eval
方法会验证训练后模型的精度。
用于再训练场景
针对任务中断再训练及fine-tuning场景,可以加载网络参数和优化器参数到模型中。
示例代码如下:
# return a parameter dict for model
param_dict = load_checkpoint("resnet50-2_32.ckpt")
resnet = ResNet50()
opt = Momentum()
# load the parameter into net
load_param_into_net(resnet, param_dict)
# load the parameter into operator
load_param_into_net(opt, param_dict)
loss = SoftmaxCrossEntropyWithLogits()
model = Model(resnet, loss, opt)
model.train(epoch, dataset)
load_checkpoint
方法会返回一个参数字典,load_param_into_net
会把参数字典中相应的参数加载到网络或优化器中。
导出模型
当有了CheckPoint文件后,如果想继续做推理,需要通过网络和CheckPoint生成对应的模型。export
接口支持导出多种类型的模型文件格式,用于不同硬件平台的推理。
导出AIR格式文件
AIR格式文件仅支持昇腾AI处理器,导出该格式文件的代码样例如下:
from mindspore.train.serialization import export
import numpy as np
resnet = ResNet50()
# return a parameter dict for model
param_dict = load_checkpoint("resnet50-2_32.ckpt")
# load the parameter into net
load_param_into_net(resnet, param_dict)
input = np.random.uniform(0.0, 1.0, size = [32, 3, 224, 224]).astype(np.float32)
export(resnet, Tensor(input), file_name = 'resnet50-2_32.air', file_format = 'AIR')
使用export
接口之前,需要先导入mindspore.train.serialization
。
input
用来指定导出模型的输入shape以及数据类型。
建议使用.air
作为AIR格式文件的后缀名。
导出ONNX格式文件
ONNX格式文件是一种较为通用的模型文件,可适用于昇腾AI处理器、GPU、CPU等多种硬件。导出该格式文件的代码样例如下:
from mindspore.train.serialization import export
import numpy as np
resnet = ResNet50()
# return a parameter dict for model
param_dict = load_checkpoint("resnet50-2_32.ckpt")
# load the parameter into net
load_param_into_net(resnet, param_dict)
input = np.random.uniform(0.0, 1.0, size = [32, 3, 224, 224]).astype(np.float32)
export(resnet, Tensor(input), file_name = 'resnet50-2_32.onnx', file_format = 'ONNX')
建议使用.onnx
作为ONNX格式文件的后缀名。
导出MINDIR格式文件
MINDIR格式文件可用于MindSpore Lite端侧推理和MindSpore Serving推理服务。当前支持基于静态图,且不包含控制流语义的推理网络导出。导出该格式文件的代码样例如下:
from mindspore.train.serialization import export
import numpy as np
resnet = ResNet50()
# return a parameter dict for model
param_dict = load_checkpoint("resnet50-2_32.ckpt")
# load the parameter into net
load_param_into_net(resnet, param_dict)
input = np.random.uniform(0.0, 1.0, size = [32, 3, 224, 224]).astype(np.float32)
export(resnet, Tensor(input), file_name = 'resnet50-2_32.mindir', file_format = 'MINDIR')
建议使用.mindir
作为MINDIR格式文件的后缀名。