mindspore.ops.Abs |
无 |
mindspore.ops.ACos |
无 |
mindspore.ops.Acosh |
无 |
mindspore.ops.Add |
无 |
mindspore.ops.ApproximateEqual |
无 |
mindspore.ops.ArgMaxWithValue |
输入在轴(axis)的维度进行切分时,分布式结果可能会和单机不一致 |
mindspore.ops.ArgMinWithValue |
输入在轴(axis)的维度进行切分时,分布式结果可能会和单机不一致 |
mindspore.ops.Asin |
无 |
mindspore.ops.Asinh |
无 |
mindspore.ops.Assign |
无 |
mindspore.ops.AssignAdd |
无 |
mindspore.ops.AssignSub |
无 |
mindspore.ops.Atan |
无 |
mindspore.ops.Atan2 |
无 |
mindspore.ops.Atanh |
无 |
mindspore.ops.AvgPool |
1. 数据格式只支持‘NCHW’; 2. 输出的H/W维的shape必须能被输入的H/W维的切分策略整除; 3. 如果切分H/W: 1) 当kernel_size <= stride时,输入切片大小需能被stride整除; 2) 不支持kernel_size > stride; 4. 在auto_parallel模式下,不支持双递归算法。 |
mindspore.ops.BatchMatMul |
不支持transpose_a=True |
mindspore.ops.BatchNorm |
不支持GPU |
mindspore.ops.BesselI0e |
无 |
mindspore.ops.BesselI1e |
无 |
mindspore.ops.BiasAdd |
无 |
mindspore.ops.BoundingBoxEncode |
1. 支持对输入(anchor_box)和输入(groundtruth_box)的第1维进行切分; 2. 输入(anchor_box)和输入(groundtruth_box)的切分策略必须一致 |
mindspore.ops.BroadcastTo |
无 |
mindspore.ops.Cast |
Auto Parallel和Semi Auto Parallel模式下,配置策略不生效 |
mindspore.ops.Ceil |
无 |
mindspore.ops.Concat |
输入(input_x)在轴(axis)所对应的维度不能切分,切分后,在数学逻辑上和单机不等价 |
mindspore.ops.Conv2D |
1. 数据格式只支持‘NCHW’; 2. 如果涉及相邻节点数据交换,只支持Ascend; 3. 当group的值不为1时,不支持切分C-in/C-out; 4. weight的后两维不支持切分; 5. 输出的H/W维的shape必须能被输入的H/W维的切分策略整除; 6. valid模式下:如果切分H/W: 1) 当kernel_size <= stride时(其中kernel_size=dilation * (kernel_size - 1) + 1,下同),输入切片大小需能被stride整除; 2) 不支持kernel_size > stride; 7. same/pad模式下:如果切分H/W: 1) (包含pad的输入总长度 - kernel_size)需能被stride整除; 2)( 输出总长度*stride - 输入总长度)需能被切分策略整除: 3)相邻卡间发送接收的数据长度需大于等于0且小于等于切片大小; |
mindspore.ops.Conv2DBackpropInput |
1. 数据格式只支持‘NCHW’; 2. 如果涉及相邻节点数据交换,只支持Ascend; 3. 当group的值不为1时,不支持切分C-in/C-out; 4. weight的后两维不支持切分; 5. 输出的H/W维的shape必须能被输入的H/W维的切分策略整除; 6. valid模式下:不支持切分H/W维; 7. same/pad模式下:相邻卡间发送接收的数据长度需大于等于0且小于等于切片大小。 |
mindspore.ops.Cos |
无 |
mindspore.ops.Cosh |
无 |
mindspore.ops.CropAndResize |
1. 不支持对输入(x)的H/W维和输入(boxes)的第2维进行切分; 2. 输入(boxes)和输入(box_index)第1维的切分策略必须一致 |
mindspore.ops.Div |
无 |
mindspore.ops.DivNoNan |
无 |
mindspore.ops.Dropout |
无 |
mindspore.ops.DropoutDoMask |
需和DropoutGenMask 联合使用 |
mindspore.ops.DropoutGenMask |
需和DropoutDoMask 联合使用,不支持配置切分策略 |
mindspore.ops.Elu |
无 |
mindspore.ops.EmbeddingLookup |
同Gather |
mindspore.ops.Equal |
无 |
mindspore.ops.Erf |
无 |
mindspore.ops.Erfc |
无 |
mindspore.ops.Exp |
无 |
mindspore.ops.ExpandDims |
无 |
mindspore.ops.Expm1 |
无 |
mindspore.ops.Floor |
无 |
mindspore.ops.FloorDiv |
无 |
mindspore.ops.FloorMod |
无 |
mindspore.ops.Gather |
仅支持1维和2维的input_params,并且input_params的最后一维要32字节对齐(出于性能考虑);不支持标量input_indices;参数在轴(axis)所在维度切分时,不支持重复计算;不支持input_indices和input_params同时进行切分;在均匀切分,axis=0且参数在轴(axis)所在维度切分时,支持配置输出切分策略,合法的输出切分策略为(index_strategy, param_strategy[1:]) 或 ((index_strategy[0]*param_strategy[0], index_strategy[1:]), param_strategy[1:]) |
mindspore.ops.GatherD |
dim所对应的维度不能切分;在auto_parallel模式下,不支持双递归算法。 |
mindspore.ops.GatherNd |
第一个输入不能切分,第二个输入的最后一维不能切分;在auto_parallel模式下,不支持双递归算法。 |
mindspore.ops.GeLU |
无 |
mindspore.ops.Greater |
无 |
mindspore.ops.GreaterEqual |
无 |
mindspore.ops.Inv |
无 |
mindspore.ops.IOU |
支持对输入(anchor_boxes)和输入(gt_boxes)的第1维切分 |
mindspore.ops.L2Normalize |
输入(input_x)在轴(axis)对应的维度不能切,切分后,在数学逻辑上和单机不等价 |
mindspore.ops.Less |
无 |
mindspore.ops.LessEqual |
无 |
mindspore.ops.LogicalAnd |
无 |
mindspore.ops.LogicalNot |
无 |
mindspore.ops.LogicalOr |
无 |
mindspore.ops.Log |
无 |
mindspore.ops.Log1p |
无 |
mindspore.ops.LogSoftmax |
输入(logits)在轴(axis)对应的维度不可切分,切分后,在数学逻辑上和单机不等价 |
mindspore.ops.MatMul |
1. 不支持transpose_a=True ; 2. 当transpose_b=True 时,输入的切分策略需是 ((A, B), (C, B)) 的形式 3. 当transpose_b=False 时,输入的切分策略需是 ((A, B), (B, C)) 的形式; 4. 支持设置输出切分策略,合法的输出切分策略为 ((A, C),) 或 ((A * B, C),) 。 |
mindspore.ops.Maximum |
无 |
mindspore.ops.MaxPool |
1. 数据格式只支持‘NCHW’; 2. 输出的H/W维的shape必须能被输入的H/W维的切分策略整除; 3. 如果切分H/W: 1) 当kernel_size <= stride时,输入切片大小需能被stride整除; 2) 不支持kernel_size > stride; 4. 在auto_parallel模式下,不支持双递归算法。 |
mindspore.ops.Minimum |
无 |
mindspore.ops.Mod |
无 |
mindspore.ops.Mul |
无 |
mindspore.ops.Neg |
无 |
mindspore.ops.NotEqual |
无 |
mindspore.ops.OneHot |
仅支持输入(indices)是1维的Tensor,切分策略要配置输出的切分策略,以及第1和第2个输入的切分策略 |
mindspore.ops.OnesLike |
无 |
mindspore.ops.Pow |
无 |
mindspore.ops.PReLU |
weight的shape在非[1]的情况下,输入(input_x)的Channel维要和weight的切分方式一致 |
mindspore.ops.RandomChoiceWithMask |
1. 不支持切分,仅支持全1策略; 2. 分布式逻辑仅支持GPU平台 |
mindspore.ops.RealDiv |
无 |
mindspore.ops.Reciprocal |
无 |
mindspore.ops.ReduceMax |
输入在轴(axis)的维度进行切分时,分布式结果可能会和单机不一致 |
mindspore.ops.ReduceMin |
输入在轴(axis)的维度进行切分时,分布式结果可能会和单机不一致 |
mindspore.ops.ReduceSum |
无 |
mindspore.ops.ReduceMean |
无 |
mindspore.ops.ReLU |
无 |
mindspore.ops.ReLU6 |
无 |
mindspore.ops.ReLUV2 |
无 |
mindspore.ops.Reshape |
不支持配置切分策略,并且,在自动并行模式下,当reshape算子后接有多个算子,不允许对这些算子配置不同的切分策略 |
mindspore.ops.ResizeBilinear |
在GPU平台下,不支持H/W维切分;在Ascend平台下,不支持H维切分,且W维的输出shape要能被切分数整除。 |
mindspore.ops.ResizeNearestNeighbor |
在align_corners=True 时只支持切分第一维和第二维 |
mindspore.ops.ROIAlign |
不支持对输入(features)的H/W维和输入(rois)的第2维进行切分 |
mindspore.ops.Round |
无 |
mindspore.ops.Rsqrt |
无 |
mindspore.ops.ScatterUpdate |
第一个输入的第一维不能切分,第二个输入不能切分,第三个输入的前n维(n为第二个输入的维度)不能切分;在auto_parallel模式下,不支持双递归算法。 |
mindspore.ops.Select |
在auto_parallel模式下,不支持双递归算法。 |
mindspore.ops.Sigmoid |
无 |
mindspore.ops.SigmoidCrossEntropyWithLogits |
无 |
mindspore.ops.Sign |
无 |
mindspore.ops.Sin |
无 |
mindspore.ops.Sinh |
无 |
mindspore.ops.Softmax |
输入(logits)在轴(axis)对应的维度不可切分,切分后,在数学逻辑上和单机不等价 |
mindspore.ops.SoftmaxCrossEntropyWithLogits |
输入(logits、labels)的最后一维不能切分;有两个输出,正向的loss只支持取[0] |
mindspore.ops.Softplus |
无 |
mindspore.ops.Softsign |
无 |
mindspore.ops.SparseGatherV2 |
同Gather |
mindspore.ops.Split |
轴(axis)所对应的维度不能切分,切分后,在数学逻辑上和单机不等价 |
mindspore.ops.Sqrt |
无 |
mindspore.ops.Square |
无 |
mindspore.ops.Squeeze |
无 |
mindspore.ops.Stack |
无 |
mindspore.ops.StridedSlice |
仅支持值为全0的mask;需要切分的维度必须全部提取;输入在strides不为1对应的维度不支持切分 |
mindspore.ops.Slice |
需要切分的维度必须全部提取 |
mindspore.ops.Sub |
无 |
mindspore.ops.Tan |
无 |
mindspore.ops.Tanh |
无 |
mindspore.ops.Tile |
仅支持对multiples配置切分策略 |
mindspore.ops.TopK |
最后一维不支持切分,切分后,在数学逻辑上和单机不等价 |
mindspore.ops.Transpose |
无 |
mindspore.ops.Unique |
只支持重复计算的策略(1,) |
mindspore.ops.UnsortedSegmentSum |
输入input_x和segment_ids的切分配置必须在segment_ids的维度上保持一致 |
mindspore.ops.UnsortedSegmentMin |
输入input_x和segment_ids的切分配置必须在segment_ids的维度上保持一致。注意:在segment id为空时,输出向量的对应位置会填充为输入类型的最大值。需要用户进行掩码处理,将最大值转换成0。否则容易造成数值溢出,导致通信算子上溢错误,从而引发Run Task Error |
mindspore.ops.UnsortedSegmentMax |
输入input_x和segment_ids的切分配置必须在segment_ids的维度上保持一致。注意:在segment id为空时,输出向量的对应位置会填充为输入类型的最小值。需要用户进行掩码处理,将最小值转换成0。否则容易造成数值溢出,导致通信算子上溢错误,从而引发Run Task Error |
mindspore.ops.ZerosLike |
无 |