mindspore.mint.distributed.init_process_group
- mindspore.mint.distributed.init_process_group(backend='hccl', init_method=None, timeout=None, world_size=- 1, rank=- 1, store=None, pg_options=None, device_id=None)[源代码]
初始化通信服务并创建默认通讯group(group=GlobalComm.WORLD_COMM_GROUP)。
说明
当前接口不支持GPU、CPU版本的MindSpore调用。
在Ascend硬件平台下,这个接口的设置需要在创建Tensor和Parameter之前,以及所有算子和网络的实例化和运行之前。
- 参数:
backend (str,可选) - 分布式后端的名称,默认为
"hccl"
,且目前只能设置为hccl。init_method (str, 无效参数) - 初始化通讯域时的URL配置。这个参数主要对标PT,但实际无效且设置不生效。
timeout (timedelta, 无效参数) - 设置接口的超时配置。这个参数主要对标PT,但实际无效且设置不生效。
world_size (int, 可选) - 配置初始化时全局通讯的卡数。
rank (int, 无效参数) - 设置当前设备卡的卡号。这个参数主要对标PT,但实际无效且设置不生效。
store (Store, 无效参数) - key/value 数据在设备进程上存储以便于设备进程间通讯地址、连接信息的交换。这个参数主要对标PT,但实际无效且设置不生效。
pg_options (ProcessGroupOptions, 无效参数) - 针对创建的通讯group设置特殊配置策略。这个参数主要对标PT,但实际无效且设置不生效。
device_id (int, 无效参数) - 设置当前进程使用的NPU卡卡号。这个参数主要对标PT,但实际无效且设置不生效。
- 异常:
ValueError - 参数 backend 的值不是hccl。
ValueError - 参数 world_size 的值非-1,且与实际通讯集群数不一致。
RuntimeError - 1)硬件设备类型无效;2)后台服务无效;3)分布式计算初始化失败;4)后端是HCCL的情况下,未设置环境变量 RANK_ID 或 MINDSPORE_HCCL_CONFIG_PATH 的情况下初始化HCCL服务。
- 支持平台:
Ascend
样例:
>>> import mindspore as ms >>> from mindspore import set_context >>> from mindspore.mint.distributed import init_process_group, destroy_process_group >>> set_context(device_target="Ascend") >>> init_process_group() >>> destroy_process_group()