mindspore.communication.get_local_rank_size

查看源文件
mindspore.communication.get_local_rank_size(group=GlobalComm.WORLD_COMM_GROUP)[源代码]

获取指定通信组的本地设备总数。

说明

  • MindSpore的GPU和CPU版本不支持此方法。

  • get_local_rank_size 方法应该在 init 方法之后使用。

参数:
  • group (str) - 传入的通信组名称,通常由 create_group 方法创建,或默认使用 GlobalComm.WORLD_COMM_GROUP

返回:

int,调用该方法的进程对应的通信组设备总数。

异常:
  • TypeError - 在参数 group 不是字符串时抛出。

  • ValueError - 在后端不可用时抛出。

  • RuntimeError - HCCL 服务不可用时,或者使用了MindSpore的GPU或CPU版本。

支持平台:

Ascend GPU CPU

样例:

说明

运行以下样例之前,需要配置好通信环境变量。

针对Ascend/GPU/CPU设备,推荐使用msrun启动方式,无第三方以及配置文件依赖。详见 msrun启动

>>> import mindspore as ms
>>> from mindspore.communication import init, get_local_rank_size
>>> ms.set_device(device_target="Ascend")
>>> init()
>>> local_rank_size = get_local_rank_size()
>>> print("local_rank_size is: ", local_rank_size)
local_rank_size is: 8