mindspore.ops.ApplyRMSProp
==========================

.. py:class:: mindspore.ops.ApplyRMSProp(use_locking=False)

    实现均方根传播Root Mean Square prop(RMSProp)算法的优化器。请参考源码中的用法 :class:`mindspore.nn.RMSProp` 。

    ApplyRMSProp算法的更新公式如下所示:

    .. math::
        \begin{array}{ll} \\
            s_{t+1} = \rho s_{t} + (1 - \rho)(\nabla Q_{i}(w))^2 \\
            m_{t+1} = \beta m_{t} + \frac{\eta} {\sqrt{s_{t+1} + \epsilon}} \nabla Q_{i}(w) \\
            w = w - m_{t+1}
        \end{array}

    其中 :math:`w` 代表待更新的网络参数 `var` 。
    :math:`s_{t+1}` 为均方梯度 `mean_square` ,:math:`s_{t}` 为上一步的 :math:`s_{t+1}` ,
    :math:`m_{t+1}` 为 `moment` , :math:`m_{t}` 为上一步的 :math:`m_{t+1}` 。
    :math:`\rho` 为 `decay` 。 :math:`\beta` 为动量项 `momentum` 。
    :math:`\epsilon` 是避免零为除数的平滑项 `epsilon` 。
    :math:`\eta` 为 `learning_rate` 。 :math:`\nabla Q_{i}(w)` 代表 `grad` 。

    .. warning::
        在该算法的稠密实现版本中,"mean_square"和"momemt"即使"grad"为零将仍被更新。但在该稀疏实现版本中,在"grad"为零的迭代"mean_squre"和"moment"将不被更新。

    参数:
        - **use_locking** (bool) - 是否对参数更新加锁保护。默认值:  ``False`` 。

    输入:
        - **var** (Parameter) - 待更新的网络参数。
        - **mean_square** (Tensor) - 均方梯度,数据类型需与 `var` 相同。
        - **moment** (Tensor) - 一阶矩,数据类型需与 `var` 相同。
        - **learning_rate** (Union[Number, Tensor]) - 学习率。需为浮点数或者数据类型为float16或float32的标量矩阵。
        - **grad** (Tensor) - 梯度,数据类型需与 `var` 相同。
        - **decay** (float) - 衰减率。需为常量。
        - **momentum** (float) - 移动平均的动量项momentum。需为常量。
        - **epsilon** (float) - 避免除数为零的平滑项。需为常量。

    输出:
        Tensor,待更新的网络参数。

    异常:
        - **TypeError** - `use_locking` 不是bool类型。
        - **TypeError** - `var` 、 `mean_square` 、 `moment` 或 `decay` 不是Tensor。
        - **TypeError** - `learning_rate` 不是数值也不是Tensor。
        - **TypeError** - `decay` 、 `momentum` 或 `epsilon` 的数据类型非float。
        - **TypeError** - `learning_rate` 的数据类型不是float16或float32。
        - **ValueError** - `decay` 、 `momentum` 或 `epsilon` 不是常量。