mindspore.mint.nn.PReLU ======================= .. py:class:: mindspore.mint.nn.PReLU(num_parameters=1, init=0.25, dtype=None) 逐元素计算PReLU(PReLU Activation Operator)激活函数。 公式定义为: .. math:: PReLU(x_i)= \max(0, x_i) + w * \min(0, x_i), 其中 :math:`x_i` 是输入的Tensor。 这里 :math:`w` 是一个可学习的参数,默认初始值0.25。 当带参数调用时每个通道上学习一个 :math:`w` 。如果不带参数调用时,则将在所有通道中共享单个参数 :math:`w` 。 PReLU函数图: .. image:: ../images/PReLU2.png :align: center .. note:: 通道数是输入的第二个维度值。当输入的维度小于2时,则没有通道维度并且通道数等于1。 参数: - **num_parameters** (int,可选) - 可训练参数 :math:`w` 的数量。虽然这个参数可以接受一个int作为输入,但只有两个值是合法的,值是1或输入Tensor `input` 的通道数。默认值: ``1`` 。 - **init** (float,可选) - 参数的初始值。默认值: ``0.25`` 。 - **dtype** (mindspore.dtype,可选) - 参数的dtype。默认值: ``None`` 。支持的数据类型是{float16, float32, bfloat16}。 输入: - **input** (Tensor) - PReLU的输入Tensor。 输出: Tensor,数据类型和shape与 `input` 相同。