mindspore.ops.Adam

class mindspore.ops.Adam(use_locking=False, use_nesterov=False)[源代码]

通过Adam算法更新梯度。

Adam算法详情请参考 Adam: A Method for Stochastic Optimization

有关更多详细信息,参见 mindspore.nn.Adam

更新公式如下:

\[\begin{split}\begin{array}{ll} \\ m = \beta_1 * m + (1 - \beta_1) * g \\ v = \beta_2 * v + (1 - \beta_2) * g * g \\ l = \alpha * \frac{\sqrt{1-\beta_2^t}}{1-\beta_1^t} \\ w = w - l * \frac{m}{\sqrt{v} + \epsilon} \end{array}\end{split}\]

其中, \(m\) 表示第一个动量矩阵, \(v\) 表示第二个动量矩阵, \(g\) 表示 gradient\(l\) 表示缩放因子 lr\(\beta_1, \beta_2\) 表示 beta1beta2\(t\) 表示更新步数, \(beta_1^t(\beta_1^{t})\)\(beta_2^t(\beta_2^{t})\) 表示 beta1_powerbeta2_power\(\alpha\) 表示 learning_rate\(w\) 表示 var\(\epsilon\) 表示 epsilon

参数:
  • use_locking (bool) - 是否对参数更新加锁保护。如果为True,则 wmv 的Tensor更新将受到锁的保护。如果为False,则结果不可预测。默认值:False。

  • use_nesterov (bool) - 是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True,则使用NAG更新梯度。如果为False,则在不使用NAG的情况下更新梯度。默认值:False。

输入:
  • var (Tensor) - 需更新的权重。shape: \((N, *)\) ,其中 \(*\) 表示任意数量的附加维度,其数据类型可以是float16或float32。

  • m (Tensor) - 更新公式中的第一个动量矩阵,shape和数据类型应与 var 相同。

  • v (Tensor) - 更新公式中的第二个动量矩阵,shape和数据类型应与 var 相同。均方梯度的数据类型也应与 var 相同。

  • beta1_power (float) - 在更新公式中的 \(beta_1^t(\beta_1^{t})\) ,数据类型值应与 var 相同。

  • beta2_power (float) - 在更新公式中的 \(beta_2^t(\beta_2^{t})\) ,数据类型值应与 var 相同。

  • lr (float) - 在更新公式中的 \(l\) 。其论文建议取值为 \(10^{-8}\) ,数据类型应与 var 相同。

  • beta1 (float) - 第一个动量矩阵的指数衰减率,数据类型值应与 var 相同。论文建议取值为 \(0.9\)

  • beta2 (float) - 第二个动量矩阵的指数衰减率,数据类型值应与 var 相同。论文建议取值为 \(0.999\)

  • epsilon (float) - 添加到分母中的值,以提高数值稳定性。

  • gradient (Tensor) - \(g\) 表示梯度,shape和数据类型与 var 相同。

输出:

3个Tensor的tuple,已更新的参数。

  • var (Tensor) - shape和数据类型与输入 var 相同。

  • m (Tensor) - shape和数据类型与输入 m 相同。

  • v (Tensor) - shape和数据类型与输入 v 相同的。

异常:
  • TypeError - use_lockinguse_nesterov 都不是bool。

  • TypeError - varmv 不是Tensor。

  • TypeError - beta1_powerbeta2_power1lrbeta1beta2epsilongradient 不是Tensor。

支持平台:

Ascend GPU CPU

样例:

>>> class Net(nn.Cell):
...     def __init__(self):
...         super(Net, self).__init__()
...         self.apply_adam = ops.Adam()
...         self.var = Parameter(Tensor(np.ones([2, 2]).astype(np.float32)), name="var")
...         self.m = Parameter(Tensor(np.ones([2, 2]).astype(np.float32)), name="m")
...         self.v = Parameter(Tensor(np.ones([2, 2]).astype(np.float32)), name="v")
...     def construct(self, beta1_power, beta2_power, lr, beta1, beta2, epsilon, grad):
...         out = self.apply_adam(self.var, self.m, self.v, beta1_power, beta2_power, lr, beta1, beta2,
...                               epsilon, grad)
...         return out
...
>>> net = Net()
>>> gradient = Tensor(np.ones([2, 2]).astype(np.float32))
>>> output = net(0.9, 0.999, 0.001, 0.9, 0.999, 1e-8, gradient)
>>> print(net.var.asnumpy())
[[0.9996838 0.9996838]
 [0.9996838 0.9996838]]