mindspore.nn.SyncBatchNorm
- class mindspore.nn.SyncBatchNorm(num_features, eps=1e-05, momentum=0.9, affine=True, gamma_init='ones', beta_init='zeros', moving_mean_init='zeros', moving_var_init='ones', use_batch_statistics=None, process_groups=None, dtype=mstype.float32)[源代码]
- 在N维输入上进行跨设备同步批归一化(Batch Normalization,BN)。 - 同步BN是跨设备的。BN的实现仅对每个设备中的数据进行归一化。同步BN将归一化组内的输入。描述见论文 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 。使用mini-batch数据和和学习参数进行训练,参数见如下公式。 \[y = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta\]- 说明 - 目前,SyncBatchNorm仅支持二维和四维输入。 \(\gamma\) 是通过训练学习出的scale值,\(\beta\) 是通过训练学习出的shift值。 - 参数:
- num_features (int) - 指定输入Tensor的通道数量,输入Tensor的size为 \((N, C, H, W)\) 。 
- eps (float) - \(\epsilon\) 添加到分母中的值,以确保数值稳定。默认值: - 1e-5。
- momentum (float) - 动态均值和动态方差所使用的动量。默认值: - 0.9。
- affine (bool) - bool类型。设置为True时, \(\gamma\) 和 \(\beta\) 为可学习参数。默认值: - True。
- gamma_init (Union[Tensor, str, Initializer, numbers.Number]) - \(\gamma\) 参数的初始化方法。str的值引用自函数 mindspore.common.initializer ,包括 - 'zeros'、- 'ones'、- 'xavier_uniform'、- 'he_uniform'等。默认值:- 'ones'。
- beta_init (Union[Tensor, str, Initializer, numbers.Number]) - \(\beta\) 参数的初始化方法。str的值引用自函数 mindspore.common.initializer ,包括 - 'zeros'、- 'ones'、- 'xavier_uniform'、- 'he_uniform'等。默认值:- 'zeros'。
- moving_mean_init (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 mindspore.common.initializer ,包括 - 'zeros'、- 'ones'、- 'xavier_uniform'、- 'he_uniform'等。默认值:- 'zeros'。
- moving_var_init (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 mindspore.common.initializer ,包括 - 'zeros'、- 'ones'、- 'xavier_uniform'、- 'he_uniform'等。默认值:- 'ones'。
- use_batch_statistics (bool) - 如果为 - True,则使用当前批次数据的平均值和方差值。如果为- False,则使用指定的平均值和方差值。如果为- None,则训练过程将使用当前批次数据的均值和方差,并跟踪动态均值和动态方差,验证过程将使用动态均值和动态方差。默认值:- None。
- process_groups (list) - 将设备划分为不同的同步组的列表,包含N个列表。每个列表都包含需要在同一组中同步的rank ID,其数据类型为整数且数值范围必须为[0, rank_size)并且各不相同。如果为 - None,表示跨所有设备同步。默认值:- None。
- dtype ( - mindspore.dtype) - Parameters的dtype。默认值:- mstype.float32。
 
- 输入:
- x (Tensor) - shape为 \((N, C_{in}, H_{in}, W_{in})\) 的Tensor。 
 
- 输出:
- Tensor,归一化后的Tensor,shape为 \((N, C_{out}, H_{out}, W_{out})\) 。 
- 异常:
- TypeError - num_features 不是int。 
- TypeError - eps 不是float。 
- TypeError - process_groups 不是list。 
- ValueError - num_features 小于1。 
- ValueError - momentum 不在范围[0, 1]内。 
- ValueError - process_groups 中的rank ID不在[0, rank_size)范围内。 
 
- 支持平台:
- Ascend
 - 样例: - 说明 - 运行以下样例之前,需要配置好通信环境变量。 - 针对Ascend设备,用户需要准备rank表,设置rank_id和device_id,详见 rank table启动 。 - 针对GPU设备,用户需要准备host文件和mpi,详见 mpirun启动 。 - 针对CPU设备,用户需要编写动态组网启动脚本,详见 动态组网启动 。 - 该样例需要在多卡环境下运行。 - >>> import numpy as np >>> import mindspore as ms >>> from mindspore.communication import init >>> >>> ms.set_context(mode=ms.GRAPH_MODE) >>> init() >>> ms.reset_auto_parallel_context() >>> ms.set_auto_parallel_context(parallel_mode=ms.ParallelMode.DATA_PARALLEL) >>> sync_bn_op = ms.nn.SyncBatchNorm(num_features=3, process_groups=[[0, 1], [2, 3]]) >>> x = ms.Tensor(np.ones([1, 3, 2, 2]), ms.float32) >>> output = sync_bn_op(x) >>> print(output) [[[[ 0.999995 0.999995 ] [ 0.999995 0.999995 ]] [[ 0.999995 0.999995 ] [ 0.999995 0.999995 ]] [[ 0.999995 0.999995 ] [ 0.999995 0.999995 ]]]]