文档反馈

问题文档片段

问题文档片段包含公式时,显示为空格。

提交类型
issue

有点复杂...

找人问问吧。

PR

小问题,全程线上修改...

一键搞定!

请选择提交类型

问题类型
规范和低错类

- 规范和低错类:

- 错别字或拼写错误,标点符号使用错误、公式错误或显示异常。

- 链接错误、空单元格、格式错误。

- 英文中包含中文字符。

- 界面和描述不一致,但不影响操作。

- 表述不通顺,但不影响理解。

- 版本号不匹配:如软件包名称、界面版本号。

易用性

- 易用性:

- 关键步骤错误或缺失,无法指导用户完成任务。

- 缺少主要功能描述、关键词解释、必要前提条件、注意事项等。

- 描述内容存在歧义指代不明、上下文矛盾。

- 逻辑不清晰,该分类、分项、分步骤的没有给出。

正确性

- 正确性:

- 技术原理、功能、支持平台、参数类型、异常报错等描述和软件实现不一致。

- 原理图、架构图等存在错误。

- 命令、命令参数等错误。

- 代码片段错误。

- 命令无法完成对应功能。

- 界面错误,无法指导操作。

- 代码样例运行报错、运行结果不符。

风险提示

- 风险提示:

- 对重要数据或系统存在风险的操作,缺少安全提示。

内容合规

- 内容合规:

- 违反法律法规,涉及政治、领土主权等敏感词。

- 内容侵权。

请选择问题类型

问题描述

点击输入详细问题描述,以帮助我们快速定位问题。

mindspore.nn.BatchNorm2d

查看源文件
class mindspore.nn.BatchNorm2d(num_features, eps=1e-5, momentum=0.9, affine=True, gamma_init='ones', beta_init='zeros', moving_mean_init='zeros', moving_var_init='ones', use_batch_statistics=None, data_format='NCHW', dtype=mstype.float32)[源代码]

在四维输入(具有额外通道维度的小批量二维输入)上应用批归一化处理(Batch Normalization Layer),以避免内部协变量偏移。批归一化广泛应用于卷积网络中。详情见论文 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 。使用mini-batch数据和学习参数进行训练,参数详见以下公式:

y=xE[x]Var[x]+ϵγ+β

说明

BatchNorm的实现在图模式和PyNative模式下是不同的,因此不建议在网络初始化后更改其模式。

需要注意的是,更新 moving_meanmoving_var 的公式为:

moving_mean=moving_mean*momentum+μβ*(1−momentum)moving_var=moving_var*momentum+σβ2*(1−momentum)

其中, moving_mean 是更新后的均值, moving_var 是更新后的方差, μβ,σβ2 是每一批的数据的观测值(分别为均值和方差)。

参数:
  • num_features (int) - 通道数量。即输入Tensor的shape (N,C,H,W) 中的 C

  • eps (float,可选) - ϵ 加在分母上的值,以确保数值稳定。默认值: 1e-5

  • momentum (float,可选) - 动态均值和动态方差所使用的动量。默认值: 0.9

  • affine (bool,可选) - bool类型。设置为 True 时,可学习 γβ 值。默认值: True

  • gamma_init (Union[Tensor, str, Initializer, numbers.Number],可选) - γ 参数的初始化方法。str的值引用自函数 mindspore.common.initializer ,包括 'zeros''ones' 等。默认值: 'ones'

  • beta_init (Union[Tensor, str, Initializer, numbers.Number],可选) - β 参数的初始化方法。str的值引用自函数 mindspore.common.initializer ,包括 'zeros''ones' 等。默认值: 'zeros'

  • moving_mean_init (Union[Tensor, str, Initializer, numbers.Number],可选) - 动态平均值的初始化方法。str的值引用自函数 mindspore.common.initializer ,包括 'zeros''ones' 等。默认值: 'zeros'

  • moving_var_init (Union[Tensor, str, Initializer, numbers.Number],可选) - 动态方差的初始化方法。str的值引用自函数 mindspore.common.initializer ,包括 'zeros''ones' 等。默认值: 'ones'

  • use_batch_statistics (bool,可选) - 默认值: None

    • 如果为 True ,则使用当前批处理数据的平均值和方差值,并跟踪运行平均值和运行方差。

    • 如果为 False ,则使用指定值的平均值和方差值,不跟踪统计值。

    • 如果为 None ,则根据训练和验证模式自动设置 use_batch_statisticsTrueFalse 。在训练时, use_batch_statistics会 设置为 True 。在验证时, use_batch_statistics 会自动设置为 False

  • data_format (str,可选) - 数据格式可为 'NHWC''NCHW' 。默认值: 'NCHW'

  • dtype (mindspore.dtype,可选) - Parameters的dtype。默认值: mstype.float32

输入:
  • x (Tensor) - 输入shape为 (N,C,H,W) 的Tensor。支持数据类型:float16、float32。

输出:

Tensor,归一化后的Tensor,shape为 (N,C,H,W)

异常:
  • TypeError - num_features 不是int。

  • TypeError - eps 不是float。

  • ValueError - num_features 小于1。

  • ValueError - momentum 不在范围[0, 1]内。

  • ValueError - data_format 既不是 'NHWC' 也不是 'NCHW'

支持平台:

Ascend GPU CPU

样例:

>>> import numpy as np
>>> import mindspore as ms
>>> net = ms.nn.BatchNorm2d(num_features=3)
>>> x = ms.Tensor(np.ones([1, 3, 2, 2]).astype(np.float32))
>>> output = net(x)
>>> print(output)
[[[[ 0.999995 0.999995 ]
   [ 0.999995 0.999995 ]]
  [[ 0.999995 0.999995 ]
   [ 0.999995 0.999995 ]]
  [[ 0.999995 0.999995 ]
   [ 0.999995 0.999995 ]]]]