编译一个MNIST分类模型¶
Linux
IoT
C++
全流程
模型编译
模型代码生成
模型部署
推理应用
初级
中级
高级
概述¶
本教程介绍如何使用MindSpore Lite代码生成工具Codegen,快速生成以及部署轻量化推理代码。converter、codegen等工具的获取可以参考MindSpore团队构建文档中提供的编译输出。
其主要流程如下图流程图所示:
使用训练框架,如MindSpore等,得到训练好的模型;
使用MindSpore Lite转换工具converter,将预训练模型转换为
*.ms
格式文件;使用Codegen代码生成工具,输入
*.ms
文件自动生成推理代码;通过交叉编译,生成支持不同平台的推理库文件。
我们推荐从MNIST分类模型推理代码入手,了解Codegen生成代码、编译构建、部署等流程,从而达到快速入门的效果。
本教程基于MindSpore团队提供的Codegen代码生成工具以及算子库,演示了编译一个模型并构建部署的流程。
生成代码¶
首先下载MNIST分类网络。使用Codegen编译MNIST分类模型,生成对应的x86平台推理代码。生成代码的具体命令如下:
./codegen --codePath=. --modelPath=mnist.ms --target=x86
关于Codegen的更多使用命令说明,可参见Codegen工具的详细介绍。
部署应用¶
接下来介绍如何构建MindSpore Lite Codegen生成的模型推理代码工程,并在x86平台完成部署。
构建与运行¶
使用脚本一键生成代码并执行¶
下载MindSpore源码,进入mindspore/mindspore/lite/micro/examples/mnist_x86
目录,执行脚本mnist.sh
自动生成模型推理代码并编译工程目录。
bash mnist.sh
推理结果如下:
...
======run benchmark======
input 0: mnist_input.bin
outputs:
name: Softmax-7, DataType: 43, Size: 40, Shape: [1 10], Data:
0.000000, 0.000000, 0.000000, 1.000000, 0.000000, 0.000000, 0.000000, 0.000000, 0.000000, 0.000000,
======run success=======
生成代码工程说明¶
进入mindspore/mindspore/lite/micro/example/mnist_x86
目录中。
算子静态库目录说明
在编译此工程之前需要预先获取x86平台对应的Release包,解压后得到
mindspore-lite-{version}-inference-linux-x64
,将其拷贝到当前目录下。{version}
为版本号字符串,如1.2.0
。以本教程为例,预置x86平台的Release包目录如下:
mindspore-lite-{version}-inference-linux-x64/ ├── inference │ ├── include │ │ └── ... │ └── ... └── tools ├── codegen │ └── operator_library # 对应平台算子库目录 │ ├── include # 对应平台算子库头文件目录 │ │ └── ... │ └── lib # 对应平台算子库静态库目录 └── ...
生成代码工程目录说明
当前目录下预置了MNIST分类网络生成的代码。
mnist_x86/ # 生成代码的根目录 ├── benchmark # 生成代码的benchmark目录 └── src # 模型推理代码目录
代码编译¶
编译生成benchmark可执行文件
组织模型生成的推理代码以及算子静态库,编译生成模型推理静态库。
进入代码工程目录下,新建并进入build目录:
mkdir mnist_x86/build && cd mnist_x86/build
开始编译:
cmake -DPKG_PATH={path to}/mindspore-lite-{version}-inference-linux-x64 ..
make
{path to}
和{version}
需要用户根据实际情况填写。
代码工程编译成功结果:
...
Scanning dependencies of target net
[ 12%] Building C object src/CMakeFiles/net.dir/net.c.o
[ 25%] Building CXX object src/CMakeFiles/net.dir/session.cc.o
[ 37%] Building CXX object src/CMakeFiles/net.dir/tensor.cc.o
[ 50%] Building C object src/CMakeFiles/net.dir/weight.c.o
[ 62%] Linking CXX static library libnet.a
unzip raw static library libnet.a
raw static library libnet.a size:
-rw-r--r-- 1 user user 58K Mar 22 10:09 libnet.a
generate specified static library libnet.a
new static library libnet.a size:
-rw-r--r-- 1 user user 162K Mar 22 10:09 libnet.a
[ 62%] Built target net
Scanning dependencies of target benchmark
[ 75%] Building CXX object CMakeFiles/benchmark.dir/benchmark/benchmark.cc.o
[ 87%] Building C object CMakeFiles/benchmark.dir/benchmark/load_input.c.o
[100%] Linking CXX executable benchmark
[100%] Built target benchmark
此时在mnist_x86/build/src/
目录下生成了libnet.a
,推理执行库,在mnist_x86/build
目录下生成了benchmark
可执行文件。
代码部署¶
本示例部署于x86平台。由代码工程编译成功以后的产物为benchmark
可执行文件,将其拷贝到用户的目标Linux服务器中即可执行。
在目标Linux服务上执行编译成功的二进制文件:
./benchmark mnist_input.bin net.bin
mnist_input.bin在
example/mnist_x86
目录下,net.bin
为模型参数文件,在example/mnist_x86/src
目录下。
生成结果如下:
start run benchmark
input 0: mnist_input.bin
output size: 1
uint8:
Name: Softmax-7, DataType: 43, Size: 40, Shape: 1 10, Data:
0.000000, 0.000000, 0.000000, 1.000000, 0.000000, 0.000000, 0.000000, 0.000000, 0.000000, 0.000000,
run benchmark success
编写推理代码示例¶
本教程中的benchmark
内部实现主要用于指导用户如何编写以及调用Codegen编译的模型推理代码接口。
以下为接口调用的详细介绍,详情代码可以参见examples/mnist_x86下的示例代码示例:
构建推理的上下文以及会话¶
本教程生成的代码为非并行代码,无需上下文context,可直接设为空。
size_t model_size = 0;
Context *context = nullptr;
session::LiteSession *session = mindspore::session::LiteSession::CreateSession(model_buffer, model_size, context);
if (session == nullptr) {
std::cerr << "create lite session failed" << std::endl;
return RET_ERROR;
}
输入数据准备¶
用户所需要准备的输入数据内存空间,若输入是持久化文件,可通过读文件方式获取。若输入数据已经存在内存中,则此处无需读取,可直接传入数据指针。
std::vector<MSTensor *> inputs = session->GetInputs();
MSTensor *input = inputs.at(0);
if (input == nullptr) {
return RET_ERROR;
}
// Assume we have got input data in memory.
memcpy(input->MutableData(), input_buffer, input->Size());
执行推理¶
session->RunGraph();
推理结束获取输出¶
MSTensor *output = session->GetOutputs();
释放内存session¶
delete session;
推理代码整体调用流程¶
// Assume we have got model_buffer data in memory.
size_t model_size = 0;
Context *context = nullptr;
session::LiteSession *session = mindspore::session::LiteSession::CreateSession(model_buffer, model_size, context);
if (session == nullptr) {
std::cerr << "create lite session failed" << std::endl;
return RET_ERROR;
}
std::vector<MSTensor *> inputs = session->GetInputs();
MSTensor *input = inputs.at(0);
if (input == nullptr) {
return RET_ERROR;
}
// Assume we have got input data in memory.
memcpy(input->MutableData(), input_buffer, input->Size());
session->RunGraph();
auto outputs = session->GetOutputs();
delete session;