MindSpore
编程形态
编程形态概述
动态图
静态图
数据加载与处理
数据处理概述
数据采样
格式转换
轻量化数据处理
数据处理管道支持Python对象
自动数据增强
单节点数据缓存
数据处理性能优化
模型构建
模型构建概述
Tensor与Parameter
Functional与Cell
训练流程
训练流程概述
高阶封装:Model
训练性能优化
高级自动微分
高阶训练策略
梯度累加
二阶优化
Per-sample-gradients
分布式并行
分布式并行概述
分布式并行启动方式
数据并行
半自动并行
自动并行
手动并行
参数服务器
模型保存与加载
故障恢复
优化方法
实验特性
分布式高阶配置案例
自定义高阶编程
自定义高阶编程概述
自定义算子
自定义参数初始化
自定义损失函数
自定义优化器
自定义融合Pass
自定义神经网络层
Hook编程
训练高可用
故障恢复
进程优雅退出
临终Checkpoint保存
模型调试
Dump功能调试
Running Data Recorder
特征值检测
报错分析
动态图调试
报错地图↗
模型调优
图算融合
内存复用
AOE调优工具
模型库
官方模型库
MindSpore
»
模型构建与训练
»
高阶训练策略
查看页面源码
高阶训练策略
梯度累加
二阶优化
Per-sample-gradients