比较与torch.distributed.get_rank的差异
torch.distributed.get_rank
torch.distributed.get_rank(group=None)
更多内容详见torch.distributed.get_rank。
mindspore.communication.get_rank
mindspore.communication.get_rank(group=GlobalComm.WORLD_COMM_GROUP)
使用方式
PyTorch:该接口输入当前通信组group,输出为调用该接口进程的对应rank,当前进程不在group中时返回-1。
MindSpore:该接口输入当前通信组group,输出为调用该接口进程的对应rank。由于get_rank方法应该在init方法之后使用,故正常情况下不会出现当前进程不在group中的情况;若get_rank在init前使用,会抛出error。
分类 |
子类 |
PyTorch |
MindSpore |
差异 |
---|---|---|---|---|
参数 |
参数1 |
group |
group |
一致 |