mindspore.Parameter

class mindspore.Parameter(default_input, name=None, requires_grad=True, layerwise_parallel=False, parallel_optimizer=True)[源代码]

ParameterTensor 的子类,当它们被绑定为Cell的属性时,会自动添加到其参数列表中,并且可以通过Cell的某些方法获取,例如 cell.get_parameters()

说明

  • SEMI_AUTO_PARALLELAUTO_PARALLEL 的自动并行模式下,如果使用 Initializer 模块初始化参数,参数的类型将为 TensorTensor 仅保存张量的形状和类型信息,而不占用内存来保存实际数据。

  • 并行场景下存在参数的形状发生变化的情况,用户可以调用 Parameterinit_data 方法得到原始数据。

  • 如果网络中存在需要部分输入为 Parameter 的算子,则不允许这部分输入的 Parameter 进行数据类型转换。

  • 每一个 Parameter 使用唯一的名字可以帮助后续的操作和更新。如果有两个或多个 Parameter 在同一个网络中使用了相同的名字,将会提示在定义时使用唯一的名字。

  • Parameter 直接打印时无法查看到里面实际包含的值,需要使用 Parameter.asnumpy() 方法来查看实际的值。

参数:
  • default_input (Union[Tensor, int, float, numpy.ndarray, list]) - 初始化参数的输入值。

  • name (str) - 参数的名称。默认值: None 。如果一个网络中存在两个及以上相同名称的 Parameter 对象,在定义时将提示设置一个特有的名称。

    1. 如果一个 Parameter 未命名,默认的名字就是变量名。例如,param_a 的名字是 name_aparam_b 的名字是 param_b

    self.param_a = Parameter(Tensor([1], ms.float32), name="name_a")
    self.param_b = Parameter(Tensor([2], ms.float32))
    
    1. 如果在list或tuple中的 Parameter 未命名,将会提供一个唯一值。例如,以下 Parameter 的名字是 Parameter$1 and Parameter$2

    self.param_list = [Parameter(Tensor([3], ms.float32)),
                       Parameter(Tensor([4], ms.float32))]
    
    1. 如果 Parameter 已命名, 并且不同 Parameter 间有重复名称,将会抛出异常。例如,”its name ‘name_a’ already exists.”将会抛出。

    self.param_a = Parameter(Tensor([1], ms.float32), name="name_a")
    self.param_tuple = (Parameter(Tensor([5], ms.float32), name="name_a"),
                        Parameter(Tensor([6], ms.float32)))
    
    1. 如果一个 Parameter 多次出现在list或tuple中,只检查一次他的名字。例如,以下代码将不会抛出异常。

    self.param_a = Parameter(Tensor([1], ms.float32), name="name_a")
    self.param_tuple = (self.param_a, self.param_a)
    
  • requires_grad (bool) - 是否需要微分求梯度。默认值: True

  • layerwise_parallel (bool) - 在数据/混合并行模式下, layerwise_parallel 配置为 True 时,参数广播和梯度聚合时会过滤掉该 Parameter 。默认值: False

  • parallel_optimizer (bool) - 用于在 SEMI_AUTO_PARALLELAUTO_PARALLEL 并行模式下区分该参数是否进行优化器切分。仅在 mindspore.set_auto_parallel_context() 并行配置模块中设置 enable_parallel_optimizer 启用优化器并行时有效。默认值: True

样例:

>>> import numpy as np
>>> import mindspore
>>> from mindspore import Parameter, Tensor, ops, nn
>>>
>>> class Net(nn.Cell):
...     def __init__(self):
...         super(Net, self).__init__()
...         self.matmul = ops.MatMul()
...         self.weight = Parameter(Tensor(np.ones((1, 2)), mindspore.float32), name="w", requires_grad=True)
...
...     def construct(self, x):
...         out = self.matmul(self.weight, x)
...         return out
>>> net = Net()
>>> x = Tensor(np.ones((2, 1)), mindspore.float32)
>>> print(net(x))
[[2.]]
>>> net.weight.set_data(Tensor(np.zeros((1, 2)), mindspore.float32))
>>> print(net(x))
[[0.]]
add_pipeline_stage(stage)[源代码]

为参数添加pipeline_stage。

说明

这个接口在2.3版本废弃,并且会在未来版本移除。

参数:
  • stage (int) - 参数的pipeline_stage。

异常:
  • TypeError - 如果 stage 不是正整数。

property cache_enable

表示该参数是否开启缓存功能。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.cache_enable=True
>>> x.cache_enable
True
property cache_shape

如果使用缓存,则返回对应参数的缓存shape。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.cache_enable=True
>>> x.cache_shape=[1, 2]
>>> x.cache_shape
[1, 2]
clone(init='same')[源代码]

克隆参数。

参数:
  • init (Union[Tensor, str, numbers.Number]) - 初始化参数的形状和数据类型。如果 initTensornumbers.Number ,则克隆一个具有相同数值、形状和数据类型的新参数。如果 initstr ,则 init 将继承 Initializer 模块中对应的同名的类。例如,如果 init'same' ,则克隆一个具有相同数据、形状和数据类型的新参数。默认值: 'same'

返回:

Parameter,返回克隆的新参数。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> y = x.clone()
property comm_fusion

获取此参数的通信算子的融合类型(int)。

AUTO_PARALLELSEMI_AUTO_PARALLEL 模式下,一些用于参数或梯度聚合的通信算子将自动插入。 comm_fusion 的值必须大于等于0。当 comm_fusion0 时,算子不会融合在一起。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.comm_fusion = 3
>>> x.comm_fusion
3
copy()[源代码]

拷贝参数。

返回:

Parameter,返回拷贝的新参数。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> y = x.copy()
property data

返回参数对象。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([[1, 2], [3, 4]], dtype=np.float32)), name="param")
>>> x.data
Parameter (name=param, shape=(2, 2), dtype=Float32, requires_grad=True)
init_data(layout=None, set_sliced=False)[源代码]

初始化参数的数据。

参数:
  • layout (Union[None, tuple]) - 参数的layout信息。layout[dev_mat, tensor_map, slice_shape, filed_size, uniform_split, opt_shard_group]。默认值: None 。仅在 SEMI_AUTO_PARALLELAUTO_PARALLEL 模式下 layout 不是 None

    • dev_mat (list(int)) - 该参数的设备矩阵。

    • tensor_map (list(int)) - 该参数的张量映射。

    • slice_shape (list(int)) - 该参数的切片shape。

    • filed_size (int) - 该权重的行数。

    • uniform_split (bool) - 该参数是否进行均匀切分。

    • opt_shard_group (str) - 该参数进行优化器切分时的group。

  • set_sliced (bool) - 参数初始化时被设定为分片,则为 True 。默认值: False

返回:

初始化数据后的 Parameter 。如果当前 Parameter 已初始化,则更新 Parameter 数据。

异常:
  • RuntimeError - 参数使用 Initializer 模块进行初始化,初始化后并行模式发生更改。

  • ValueError - layout 长度小于6。

  • TypeError - layout 不是元组。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([[1, 2], [3, 4]], dtype=np.float32)), name="param")
>>> x.init_data()
property inited_param

用于调用 init_data 后,获取当前的Parameter。

如果 self 是没有数据的Parameter,则默认返回为None;在调用 init_data 方法对Parameter初始化数据后,当前Parameter会被记录在此属性中。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.inited_param
property key

用于获取当前Parameter的唯一key值。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.key = 2
>>> x.key
2
property layerwise_parallel

获取此参数的逐层并行状态(bool)。

DATA_PARALLELHYBRID_PARALLEL 模式下,如果 layerwise_parallelTrue ,则广播和gradients通信将不会应用到参数。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.layerwise_parallel = True
>>> x.layerwise_parallel
True
property name

获取参数的名称。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.name = "param1"
>>> x.name
'param1'
property parallel_optimizer

获取此参数的优化器并行状态(bool)。

用于在 AUTO_PARALLELSEMI_AUTO_PARALLEL 模式下过滤权重切分操作。当在 mindspore.set_auto_parallel_context() 中启用优化器并行时,它才有效。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.parallel_optimizer = True
>>> x.parallel_optimizer
True
property parallel_optimizer_comm_recompute

获取此参数的优化器并行通信重计算状态(bool)。

AUTO_PARALLELSEMI_AUTO_PARALLEL 模式下,当使用并行优化器时,会自动插入一些 mindspore.ops.AllGather 算子,用于参数聚合。它用于控制这些 mindspore.ops.AllGather 算子的重计算属性。

说明

  • 仅支持 Graph 模式。

  • 建议使用cell.recompute(parallel_optimizer_comm_recompute=True/False)去配置由优化器并行生成的 mindspore.ops.AllGather 算子,而不是直接使用该接口。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.parallel_optimizer_comm_recompute = True
>>> x.parallel_optimizer_comm_recompute
True
property requires_grad

表示该参数是否需要求梯度进行更新。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.requires_grad = True
>>> x.requires_grad
True
set_data(data, slice_shape=False)[源代码]

设置参数数据。

参数:
  • data (Union[Tensor, int, float]) - 新数据。

  • slice_shape (bool) - 如果 slice_shape 设为 True ,则不检查 data 和当前参数shape的一致性。默认值: False 。当 slice_shape 设为 True 时,如果两个shape不一致,会抛出ValueError。

返回:

完成数据设置的新参数。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([[1, 2], [3, 4]], dtype=np.float32)), name="param")
>>> x.set_data(Tensor(np.array([[6, 6], [6, 6]], dtype=np.float32)))
Parameter (name=param, shape=(2, 2), dtype=Float32, requires_grad=True)
set_param_ps(init_in_server=False)[源代码]

表示可训练参数是否由参数服务器更新,以及可训练参数是否在服务器上初始化。

说明

仅当运行的任务处于参数服务器模式下有效。 只支持在图模式下调用。

参数:
  • init_in_server (bool) - 表示参数服务器更新的可训练参数是否在服务器上初始化。默认值: False

教程样例:
property sliced

获取参数的切片状态。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.sliced = True
>>> x.sliced
True
property unique

表示参数是否唯一。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x.unique = True
>>> x.unique
True
value()[源代码]

返回参数的值。

样例:

>>> from mindspore import Tensor, Parameter
>>> import numpy as np
>>> x = Parameter(Tensor(np.array([1, 2], dtype=np.float32)), name="param")
>>> x_value = x.value()
>>> print(x_value)
[1.  2.]