mindspore.ops.ApplyCenteredRMSProp
- class mindspore.ops.ApplyCenteredRMSProp(use_locking=False)[源代码]
居中RMSProp算法优化器。
请参考源代码中的用法:
mindspore.nn.RMSProp
。更新公式如下:
\[\begin{split}\begin{array}{ll} \\ g_{t+1} = \rho g_{t} + (1 - \rho)\nabla Q_{i}(w) \\ s_{t+1} = \rho s_{t} + (1 - \rho)(\nabla Q_{i}(w))^2 \\ m_{t+1} = \beta m_{t} + \frac{\eta} {\sqrt{s_{t+1} - g_{t+1}^2 + \epsilon}} \nabla Q_{i}(w) \\ w = w - m_{t+1} \end{array}\end{split}\]其中 \(w\) 代表 var , \(w\) 将更新。 \(g_{t+1}\) 代表 mean_gradient , \(g_{t}\) 是上一步的 \(g_{t+1}\) 。 \(s_{t+1}\) 代表 mean_square , \(s_{t}\) 是上一步的 \(s_{t+1}\) , \(m_{t+1}\) , \(m_{t}\) 是上一步的 \(m_{t+1}\) 。 \(\rho\) 代表 decay 。 \(\beta\) 是动量,代表 momentum 。 \(\epsilon\) 是一个添加在分母上的较小值,以避免被零除,表示 epsilon 。 \(\eta\) 代表 learning_rate 。 \(\nabla Q_{i}(w)\) 代表 grad 。
Note
ApplyCenteredRMSProp 和 ApplyRMSProp 的区别在于前者使用居中RMSProp算法,而居中RMSProp算法使用居中第二矩阵的估计(即,归一化的方差),而不是使用(不确定的)第二矩阵的正则RMSProp。这通常有助于训练,但在计算和内存方面消耗更大。
Warning
在此算法的密集实现中, mean_gradient 、 mean_square 和 moment 在 grad 为零时仍将被更新。但在稀疏实现中, mean_gradient 、 mean_square 和 moment 不会在 grad 为零的迭代中被更新。
- 参数:
use_locking (bool) - 是否对参数更新增加锁保护。默认值:False。
- 输入:
var (Tensor) - 要更新的权重。
mean_gradient (Tensor) - 均值梯度,数据类型必须与 var 相同。
mean_square (Tensor) - 均方梯度,数据类型必须与 var 相同。
moment (Tensor) - var 的增量,数据类型必须与 var 相同。
grad (Tensor) - 梯度,数据类型必须与 var 相同。
learning_rate (Union[Number, Tensor]) - 学习率。必须是float或Scalar的Tensor,数据类型为float16或float32。
decay (float) - 衰减率。
momentum (float) - 动量。
epsilon (float) - 添加在分母上的较小值,以避免被零除。
- 输出:
Tensor,更新后的数据。
- 异常:
TypeError - 如果 use_locking 不是bool。
TypeError - 如果 var 、 mean_gradient 、 mean_square 、 moment 或 grad 不是Tensor。
TypeError - 如果 learing_rate 既不是数值型也不是Tensor。
TypeError - 如果 learing_rate 的数据类型既不是float16也不是float32。
TypeError - 如果 decay 、 momentum 或 epsilon 不是float。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> class Net(nn.Cell): ... def __init__(self): ... super(Net, self).__init__() ... self.apply_centerd_rms_prop = ops.ApplyCenteredRMSProp() ... self.var = Parameter(Tensor(np.ones([2, 2]).astype(np.float32)), name="var") ... ... def construct(self, mean_grad, mean_square, moment, grad, decay, momentum, epsilon, lr): ... out = self.apply_centerd_rms_prop(self.var, mean_grad, mean_square, moment, grad, ... lr, decay, momentum, epsilon) ... return out ... >>> net = Net() >>> mean_grad = Tensor(np.ones([2, 2]).astype(np.float32)) >>> mean_square = Tensor(np.ones([2, 2]).astype(np.float32)) >>> moment = Tensor(np.ones([2, 2]).astype(np.float32)) >>> grad = Tensor(np.ones([2, 2]).astype(np.float32)) >>> output = net(mean_grad, mean_square, moment, grad, 0.0, 1e-10, 0.001, 0.01) >>> print(net.var.asnumpy()) [[0.68377227 0.68377227] [0.68377227 0.68377227]]