使用Java接口执行并发推理
概述
MindSpore Lite提供多model并发推理接口ModelParallelRunner,多model并发推理现支持CPU、GPU后端。
快速了解MindSpore Lite执行并发推理的完整调用流程,请参考体验Java极简并发推理Demo。
通过MindSpore Lite模型转换工具转换成.ms
模型后,即可在Runtime中执行模型的并发推理流程。本教程介绍如何使用Java接口执行多model并发推理。
使用MindSpore Lite并发推理主要包括以下步骤:
创建配置项:创建多model并发推理配置项RunnerConfig,用于配置多model并发。
初始化:多model并发推理前的初始化。
执行并发推理:使用ModelParallelRunner的Predict接口进行多Model并发推理。
释放内存:无需使用MindSpore Lite并发推理框架时,需要释放自己创建的ModelParallelRunner以及相关的Tensor。
创建配置项
配置项RunnerConfig会保存一些并发推理所需的基本配置参数,用于指导并发model数量以及模型编译和模型执行;
下面示例代码演示了如何创建RunnerConfig,并配置并发推理的worker数量。
// use default param init context
MSContext context = new MSContext();
context.init(1,0);
boolean ret = context.addDeviceInfo(DeviceType.DT_CPU, false, 0);
if (!ret) {
System.err.println("init context failed");
context.free();
return ;
}
// init runner config
RunnerConfig config = new RunnerConfig();
config.init(context);
config.setWorkersNum(2);
Context的配置方法详细见Context。
多model并发推理现阶段只支持CPUDeviceInfo、GPUDeviceInfo两种不同的硬件后端。在设置GPU后端的时候需要先设置GPU后端再设置CPU后端,否则会报错退出。
多model并发推理不支持FP32类型数据推理,绑核只支持不绑核或者绑大核,不支持绑中核的参数设置,且不支持配置绑核列表。
初始化
使用MindSpore Lite执行并发推理时,ModelParallelRunner是并发推理的主入口,通过ModelParallelRunner可以初始化以及执行并发推理。采用上一步创建得到的RunnerConfig,调用ModelParallelRunner的Init接口来实现ModelParallelRunner的初始化。
下面示例代码演示了ModelParallelRunner的初始化过程:
// init ModelParallelRunner
ModelParallelRunner runner = new ModelParallelRunner();
ret = runner.init(modelPath, config);
if (!ret) {
System.err.println("ModelParallelRunner init failed.");
runner.free();
return;
}
ModelParallelRunner的初始化,可以不设置RunnerConfig配置参数,则会使用默认参数进行多model的并发推理。
执行并发推理
MindSpore Lite调用ModelParallelRunner的Predict接口进行模型并发推理。
下面示例代码演示调用Predict
执行推理。
ret = runner.predict(inputs,outputs);
if (!ret) {
System.err.println("MindSpore Lite predict failed.");
freeTensor();
runner.free();
return;
}
释放内存
无需使用MindSpore Lite推理框架时,需要释放已经创建的ModelParallelRunner,下列示例代码演示如何在程序结束前进行内存释放。
freeTensor();
runner.free();