MindSpore
设计
MindSpore设计概览
函数式微分编程
中间表示MindIR
全场景统一
动静态图结合
分布式并行
图算融合加速引擎
高性能数据处理引擎
术语
规格
基准性能
网络支持↗
API支持
语法支持
API
mindspore
mindspore.amp
mindspore.common.initializer
mindspore.communication
mindspore.dataset
mindspore.dataset.audio
mindspore.dataset.config
mindspore.dataset.text
mindspore.dataset.transforms
mindspore.dataset.vision
mindspore.mindrecord
mindspore.nn
mindspore.nn.probability
mindspore.nn.transformer
mindspore.numpy
mindspore.ops
算子原语
装饰器
神经网络层算子
神经网络
损失函数
激活函数
优化器
mindspore.ops.Adam
mindspore.ops.AdamWeightDecay
mindspore.ops.AdaptiveAvgPool2D
mindspore.ops.ApplyAdadelta
mindspore.ops.ApplyAdagrad
mindspore.ops.ApplyAdagradDA
mindspore.ops.ApplyAdagradV2
mindspore.ops.ApplyAdaMax
mindspore.ops.ApplyAddSign
mindspore.ops.ApplyCenteredRMSProp
mindspore.ops.ApplyFtrl
mindspore.ops.ApplyGradientDescent
mindspore.ops.ApplyMomentum
mindspore.ops.ApplyPowerSign
mindspore.ops.ApplyProximalAdagrad
mindspore.ops.ApplyProximalGradientDescent
mindspore.ops.ApplyRMSProp
mindspore.ops.LARSUpdate
mindspore.ops.SparseApplyAdagrad
mindspore.ops.SparseApplyAdagradV2
mindspore.ops.SparseApplyProximalAdagrad
mindspore.ops.SGD
mindspore.ops.SparseApplyFtrl
mindspore.ops.SparseApplyFtrlV2
距离函数
采样算子
图像处理
文本处理
数学运算算子
Tensor操作算子
Parameter操作算子
数据操作算子
通信算子
调试算子
稀疏算子
框架算子
算子信息注册
自定义算子
mindspore.ops.function
mindspore.rewrite
mindspore.scipy
mindspore.boost
C++ API↗
API映射
PyTorch与MindSpore API映射表
TensorFlow与MindSpore API映射表
迁移指南
概述
环境准备与资料获取
模型分析与准备
MindSpore网络搭建
调试调优
网络迁移调试实例
常见问题
与PyTorch典型区别
基于自定义算子接口调用第三方算子库
FAQ
安装
数据处理
执行问题
网络编译
算子编译
第三方框架迁移使用
性能调优
精度调优
分布式配置
推理
特性咨询
RELEASE NOTES
Release Notes
MindSpore
»
mindspore.ops
»
mindspore.ops.SparseApplyAdagrad
View page source
mindspore.ops.SparseApplyAdagrad
class
mindspore.ops.
SparseApplyAdagrad
(
lr
,
update_slots
=
True
,
use_locking
=
False
)
[源代码]
已弃用