mindspore.mint.distributed.recv
- mindspore.mint.distributed.recv(tensor, src=0, group=None, tag=0)[源代码]
同步接收张量到指定线程。
说明
当前支持PyNative模式,不支持Graph模式。
- 参数:
tensor (Tensor) - 输入Tensor。Tensor的shape为 \((x_1, x_2, ..., x_R)\) 。 输入的 tensor 的shape和dtype将用于接收张量,但 tensor 的数据值不起作用。
src (int,可选) - 表示发送源的进程编号。只会接收来自源进程的张量。默认值:0。
group (str,可选) - 通信组名称,如果为
None
,Ascend平台表示为"hccl_world_group"
。 默认值:None
。tag (int,可选) - 用于区分发送、接收消息的标签。该消息将被接收来自相同 tag 的Send发送的张量。默认值:
0
。当前为预留参数。
- 返回:
int,如果成功接收,返回值为
0
。- 异常:
TypeError - tensor 不是Tensor, src 不是int或 group 不是str。
ValueError - 如果该线程的rank id 大于通信组的rank size。
- 支持平台:
Ascend
样例:
>>> from mindspore.mint.distributed import init_process_group >>> from mindspore.mint.distributed import recv >>> from mindspore import Tensor >>> import numpy as np >>> # Launch 2 processes. Process 0 send the following array to Process 1 [[1. 1. 1. 1. 1. 1. 1. 1.] [1. 1. 1. 1. 1. 1. 1. 1.]] >>> init_process_group() >>> x = Tensor(np.zeros([2, 8]).astype(np.float32)) # Process 1 receive tensor from Process 0. >>> out = recv(x, src=0) >>> print(x) [[1. 1. 1. 1. 1. 1. 1. 1.] [1. 1. 1. 1. 1. 1. 1. 1.]]