mindspore.mint.distributed.send

查看源文件
mindspore.mint.distributed.send(tensor, dst=0, group=None, tag=0)[源代码]

同步发送张量到指定线程。

说明

当前支持PyNative模式,不支持Graph模式。

参数:
  • tensor (Tensor) - 输入Tensor。Tensor的shape为 \((x_1, x_2, ..., x_R)\)

  • dst (int,可选) - 表示发送目标的进程编号。只有目标进程会收到张量。默认值: 0

  • group (str,可选) - 通信组名称,如果为 None ,Ascend平台表示为 "hccl_world_group" 。 默认值: None

  • tag (int,可选) - 用于区分发送、接收消息的标签。该消息将被拥有相同 tag 的Receive接收。默认值: 0 。当前为预留参数。

异常:
  • TypeError - 输入 tensor 的数据类型不为Tensor, dst不是int或group不是str。

  • ValueError - 如果发送线程和目的线程号相同。

支持平台:

Ascend

样例:

说明

运行以下样例之前,需要配置好通信环境变量。

针对Ascend设备,推荐使用msrun启动方式,无第三方以及配置文件依赖。详见 msrun启动

该样例需要在2卡环境下运行。

>>> from mindspore.mint.distributed import init_process_group
>>> from mindspore.mint.distributed import send
>>> from mindspore import Tensor
>>> import numpy as np
>>>
>>> init_process_group()
>>> input_ = Tensor(np.ones([2, 8]).astype(np.float32))
# Launch 2 processes.
Process 0 send the array to Process 1
>>> send(input_, 1)