Parameter
概述
Parameter
是变量张量,代表在训练网络时,需要被更新的参数。本章主要介绍了Parameter
的初始化以及属性和方法的使用,同时介绍了ParameterTuple
。
初始化
mindspore.Parameter(default_input, name=None, requires_grad=True, layerwise_parallel=False)
初始化一个Parameter
对象,传入的数据支持Tensor
、Initializer
、int
和float
四种类型。
Initializer
是初始化器,可调用initializer
接口生成Initializer
对象。
当网络采用半自动或者全自动并行策略,并且使用Initializer
初始化Parameter
时,Parameter
里保存的不是Tensor
,而是MetaTensor
。
MetaTensor
与Tensor
不同,MetaTensor
仅保存张量的形状和类型,而不保存实际数据,所以不会占用任何内存,可调用init_data
接口将Parameter
里保存的MetaTensor
转化为Tensor
。
可为每个Parameter
指定一个名称,便于后续操作和更新。如果在Cell里初始化一个Parameter作为Cell的属性时,建议使用默认值None,否则可能会出现Parameter的name与预期的不一致的情况。
当参数需要被更新时,需要将requires_grad
设置为True
。
当layerwise_parallel
(混合并行)配置为True时,参数广播和参数梯度聚合时会过滤掉该参数。
有关分布式并行的相关配置,可以参考文档:https://www.mindspore.cn/doc/programming_guide/zh-CN/r1.1/auto_parallel.html。
下例通过三种不同的数据类型构造了Parameter
,三个Parameter
都需要更新,都不采用layerwise并行。如下:
import numpy as np
from mindspore import Tensor, Parameter
from mindspore import dtype as mstype
from mindspore.common.initializer import initializer
x = Parameter(default_input=Tensor(np.arange(2*3).reshape((2, 3))), name='x')
y = Parameter(default_input=initializer('ones', [1, 2, 3], mstype.float32), name='y')
z = Parameter(default_input=2.0, name='z')
print(x, "\n\n", y, "\n\n", z)
输出如下:
Parameter (name=x)
Parameter (name=y)
Parameter (name=z)
属性
inited_param
:返回保存了实际数据的Parameter
,如果Parameter
原本保存的是MetaTensor
,会将其转换为Tensor
。name
:实例化Parameter
时,为其指定的名字。sliced
:用在自动并行场景下,表示Parameter
里保存的数据是否是分片数据。如果是,就不再对其进行切分,如果不是,需要根据网络并行策略确认是否对其进行切分。
is_init
:Parameter
的初始化状态。在GE后端,Parameter需要一个init graph
来从主机同步数据到设备侧,该标志表示数据是否已同步到设备。 此标志仅在GE后端起作用,其他后端将被设置为False。layerwise_parallel
:Parameter
是否支持layerwise并行。如果支持,参数就不会进行广播和梯度聚合,反之则需要。requires_grad
:是否需要计算参数梯度。如果参数需要被训练,则需要计算参数梯度,否则不需要。data
:Parameter
本身。
下例通过Tensor
初始化一个Parameter
,获取了Parameter
的相关属性。如下:
import numpy as np
from mindspore import Tensor, Parameter
x = Parameter(default_input=Tensor(np.arange(2*3).reshape((2, 3))))
print("name: ", x.name, "\n",
"sliced: ", x.sliced, "\n",
"is_init: ", x.is_init, "\n",
"inited_param: ", x.inited_param, "\n",
"requires_grad: ", x.requires_grad, "\n",
"layerwise_parallel: ", x.layerwise_parallel, "\n",
"data: ", x.data)
输出如下:
name: Parameter
sliced: False
is_init: False
inited_param: None
requires_grad: True
layerwise_parallel: False
data: Parameter (name=Parameter)
方法
init_data
:在网络采用半自动或者全自动并行策略的场景下, 当初始化Parameter
传入的数据是Initializer
时,可调用该接口将Parameter
保存的数据转换为Tensor
。set_data
:设置Parameter
保存的数据,支持传入Tensor
、Initializer
、int
和float
进行设置, 将方法的入参slice_shape
设置为True时,可改变Parameter
的shape,反之,设置的数据shape必须与Parameter
原来的shape保持一致。set_param_ps
:控制训练参数是否通过Parameter Server进行训练。clone
:克隆Parameter
,克隆完成后可以给新Parameter指定新的名字。
下例通过Initializer
来初始化Tensor
,调用了Parameter
的相关方法。如下:
import numpy as np
from mindspore import Tensor, Parameter
from mindspore import dtype as mstype
from mindspore.common.initializer import initializer
x = Parameter(default_input=initializer('ones', [1, 2, 3], mstype.float32))
print(x)
x_clone = x.clone()
x_clone.name = "x_clone"
print(x_clone)
print(x.init_data())
print(x.set_data(data=Tensor(np.arange(2*3).reshape((1, 2, 3)))))
输出如下:
Parameter (name=Parameter)
Parameter (name=x_clone)
Parameter (name=Parameter)
Parameter (name=Parameter)
ParameterTuple
继承于tuple
,用于保存多个Parameter
,通过__new__(cls, iterable)
传入一个存放Parameter
的迭代器进行构造,提供clone
接口进行克隆。
下例构造了一个ParameterTuple
对象,并进行了克隆。如下:
import numpy as np
from mindspore import Tensor, Parameter, ParameterTuple
from mindspore import dtype as mstype
from mindspore.common.initializer import initializer
x = Parameter(default_input=Tensor(np.arange(2*3).reshape((2, 3))), name='x')
y = Parameter(default_input=initializer('ones', [1, 2, 3], mstype.float32), name='y')
z = Parameter(default_input=2.0, name='z')
params = ParameterTuple((x, y, z))
params_copy = params.clone("params_copy")
print(params, "\n")
print(params_copy)
输出如下:
(Parameter (name=x), Parameter (name=y), Parameter (name=z))
(Parameter (name=params_copy.x), Parameter (name=params_copy.y), Parameter (name=params_copy.z))