MindSpore Lite
快速入门
体验MindSpore Lite C++ 极简Demo
体验MindSpore Lite Java极简Demo
实现一个图像分类应用(C++)
实现一个图像分割应用(Java)
编译一个MNIST分类模型
训练一个LeNet模型
获取MindSpore Lite
下载MindSpore Lite
编译MindSpore Lite
端侧推理
推理模型转换
代码生成工具
优化模型(训练后量化)
预处理数据
执行推理
其他工具
端侧训练
训练模型转换
执行训练
其他工具
参考文档
Lite算子支持
Codegen算子支持
模型支持
MindSpore Lite
»
在手机或IoT设备上使用MindSpore
View page source
在手机或IoT设备上使用MindSpore
¶
筛选条件
清除所有条件
环境
Windows
Linux
Android
IoT
用户
初级
中级
高级
阶段
全流程
环境准备
数据准备
模型导出
模型转换
模型加载
模型训练
模型调优
模型编译
模型代码生成
推理应用
基准测试
静态库裁剪
编程语言
C++
Java
体验MindSpore Lite C++ 极简Demo
本教程提供了MindSpore Lite执行推理的示例程序,通过随机输入、执行推理、打印推理结果的方式,演示了C++进行端侧推理的基本流程,用户能够快速了解MindSpore Lite执行推理相关API的使用。
体验MindSpore Lite Java极简Demo
本教程提供了MindSpore Lite执行推理的示例程序,通过随机输入、执行推理、打印推理结果的方式,演示了利用MindSpore Lite Java API进行端侧推理的基本流程,用户能够快速了解MindSpore Lite执行推理相关Java API的使用。
实现一个图像分类应用(C++)
本教程从端侧Android图像分类demo入手,帮助用户了解MindSpore Lite应用工程的构建、依赖项配置以及相关API的使用。
实现一个图像分割应用(Java)
本教程基于MindSpore团队提供的Android“端侧图像分割”示例程序,演示了端侧部署的流程。
编译一个MNIST分类模型
本教程介绍如何使用MindSpore Lite代码生成工具Codegen,快速生成以及部署轻量化推理代码。
训练一个LeNet模型
本教程基于LeNet训练示例代码,演示MindSpore Lite训练功能的使用。
下载MindSpore Lite
本教程介绍如何快速下载MindSpore Lite。
编译MindSpore Lite
本章节介绍如何快速编译出MindSpore Lite。
推理模型转换
MindSpore Lite提供离线转换模型功能的工具,支持多种类型的模型转换,转换后的模型可用于推理。
优化模型(训练后量化)
对于已经训练好的float32模型,通过训练后量化将其转为int8,不仅能减小模型大小,而且能显著提高推理性能。本教程介绍了模型训练后量化的具体方法。
预处理图像数据
本教程介绍如何通过创建LiteMat对象,在推理前对图像数据进行处理,达到模型推理所需要的数据格式要求。
使用Runtime执行推理(C++)
通过MindSpore Lite模型转换后,需在Runtime中完成模型的推理执行流程。本教程介绍如何使用Java接口编写推理代码。
使用Runtime执行推理(Java)
通过MindSpore Lite模型转换后,需在Runtime中完成模型的推理执行流程。本教程介绍如何使用C++接口编写推理代码。
使用Benchmark进行基准测试
转换模型后执行推理前,你可以使用Benchmark工具对MindSpore Lite模型进行基准测试。它不仅可以对MindSpore Lite模型前向推理执行耗时进行定量分析(性能),还可以通过指定模型输出进行可对比的误差分析(精度)。
使用裁剪工具降低库文件大小
MindSpore Lite提供对Runtime的libmindspore-lite.a静态库裁剪工具,能够筛选出ms模型中存在的算子,对静态库文件进行裁剪,有效降低库文件大小。
训练模型转换
本教程介绍了如何进行训练模型的转换。
使用Runtime执行训练 (C++)
通过MindSpore Lite模型转换后,需在Runtime中完成模型的训练执行流程。本教程介绍如何使用C++接口编写训练代码。
使用benchmark_train进行基准测试
与benchmark工具类似,MindSpore端侧训练为你提供了benchmark_train工具对训练后的模型进行基准测试。它不仅可以对模型前向推理执行耗时进行定量分析(性能),还可以通过指定模型输出进行可对比的误差分析(精度)。