MindSpore Lite
快速入门
实现一个图像分类应用
训练一个LeNet模型
获取MindSpore Lite
下载MindSpore Lite
编译MindSpore Lite
端侧推理
推理模型转换
优化模型(训练后量化)
预处理数据
执行推理
其他工具
端侧训练
训练模型转换
执行训练
其他工具
MindSpore Lite
»
在手机或IoT设备上使用MindSpore
View page source
在手机或IoT设备上使用MindSpore
¶
筛选条件
清除所有条件
操作系统
Windows
Linux
Android
用户
初级
中级
高级
阶段
全流程
环境准备
数据准备
模型导出
模型转换
模型加载
模型训练
模型调优
推理应用
基准测试
静态库裁剪
实现一个图像分类应用
本教程从端侧Android图像分类demo入手,帮助用户了解MindSpore Lite应用工程的构建、依赖项配置以及相关API的使用。
训练一个LeNet模型
本教程基于LeNet训练示例代码,演示MindSpore Lite训练功能的使用。
下载MindSpore Lite
本教程介绍如何快速下载MindSpore Lite。
编译MindSpore Lite
本章节介绍如何快速编译出MindSpore Lite。
推理模型转换
MindSpore Lite提供离线转换模型功能的工具,支持多种类型的模型转换,转换后的模型可用于推理。
优化模型(训练后量化)
对于已经训练好的float32模型,通过训练后量化将其转为int8,不仅能减小模型大小,而且能显著提高推理性能。本教程介绍了模型训练后量化的具体方法。
预处理图像数据
本教程介绍如何通过创建LiteMat对象,在推理前对图像数据进行处理,达到模型推理所需要的数据格式要求。
使用Runtime执行推理(C++)
通过MindSpore Lite模型转换后,需在Runtime中完成模型的推理执行流程。本教程介绍如何使用Java接口编写推理代码。
使用Runtime执行推理(Java)
通过MindSpore Lite模型转换后,需在Runtime中完成模型的推理执行流程。本教程介绍如何使用C++接口编写推理代码。
使用Benchmark进行基准测试
转换模型后执行推理前,你可以使用Benchmark工具对MindSpore Lite模型进行基准测试。它不仅可以对MindSpore Lite模型前向推理执行耗时进行定量分析(性能),还可以通过指定模型输出进行可对比的误差分析(精度)。
使用裁剪工具降低库文件大小
MindSpore Lite提供对Runtime的libmindspore-lite.a静态库裁剪工具,能够筛选出ms模型中存在的算子,对静态库文件进行裁剪,有效降低库文件大小。
训练模型转换
本教程介绍了如何进行训练模型的转换。
使用Runtime执行训练 (C++)
通过MindSpore Lite模型转换后,需在Runtime中完成模型的训练执行流程。本教程介绍如何使用C++接口编写训练代码。
使用net_train进行端侧训练基准测试
MindSpore端侧训练为你提供了net_train工具对训练后的模型进行基准测试。它不仅可以对模型前向推理执行耗时进行定量分析(性能),还可以通过指定模型输出进行可对比的误差分析(精度)。