自定义算子(基于Custom表达)
概述
当开发网络遇到内置算子不足以满足需求时,你可以利用MindSpore的Python API中的Custom原语方便快捷地进行不同类型自定义算子的定义和使用。
传统的添加一个自定义算子的方式,需要完成算子原语注册、算子实现、算子信息注册三部分工作。
其中:
算子原语:定义了算子在网络中的前端接口原型,也是组成网络模型的基础单元,主要包括算子的名称、属性(可选)、输入输出名称、输出shape推理方法、输出数据类型推理方法等信息。
算子实现:在Python侧定义函数(Ascend自定义算子)或C++侧定义类(GPU和CPU自定义算子),描述算子内部计算逻辑的实现。
算子信息:描述自定义算子的基本信息,如算子名称、支持的输入输出数据类型、支持的输入输出数据格式和属性等。它是后端做算子选择和映射时的依据。
相比于传统自定义算子方式,基于Custom
原语自定义算子具有如下优势:
不同的自定义算子对应的算子原语都是
Custom
原语,无需对每个自定义算子定义一个相应的算子原语。上述提到的三部分工作可以在网络脚本中以统一的接口进行实现,并作为网络表达的一部分,不需要对MindSpore框架进行侵入式修改和重新编译。实现了不同方式自定义算子的接口和使用统一,方便网络开发者根据需要灵活选用不同的自定义方式。
新增支持hybrid等自定义算子方式,并且可以跨平台使用。
基本用法
基于Custom原语的自定义算子支持的算子开发方式包括:hybrid、tbe、aicpu、aot、pyfunc、julia、akg。
不同的算子开发方式差异如下:
算子开发方式 |
开发语言 |
编译方式 |
支持平台 |
推荐场景 |
---|---|---|---|---|
hybrid |
MindSpore HYBRID DSL |
JIT |
|
Ascend/GPU平台通用开发和快速验证 |
tbe |
TBE DSL |
JIT |
|
Ascend AICORE自定义算子场景 |
aicpu |
C/C++ |
AOT |
|
Ascend AICPU自定义算子场景 |
aot |
C/C++/CUDA |
AOT |
|
高性能手写、对接调用第三方算子库场景 |
pyfunc |
Python |
JIT |
|
快速算法验证、需要与Python进行交互等场景 |
julia |
Julia |
JIT |
|
科学计算场景、需要使用Julia编程等场景 |
akg |
MindSpore AKG DSL |
JIT |
|
用于开发验证场景,不建议普通用户使用 |
DSL全称是Domain Specific Language。
AOT(Ahead Of Time)编译方式指的是,算子实现函数需提前被编译为动态链接库,然后在网络运行时由框架自动调用;JIT(Just In Time)编译方式则不需要提前编译算子实现函数,而是在网络编译或运行期间被框架直接调用。
不同的开发方式使用不同的开发语言实现算子计算逻辑,但是自定义算子的开发流程是一致的,包括算子实现、算子输出shape和数据类型推理和算子信息注册(可选)。网络开发者可以根据需要选用不同的自定义算子开发方式。下面分别介绍这几种自定义算子开发方式,每种开发方式均提供示例。
更多示例可参考MindSpore源码中tests/st/ops/graph_kernel/custom下的用例。
Hybrid类型的自定义算子开发
Hybrid类型的自定义算子是自定义算子的默认定义类型。通过使用Hybrid类型的自定义算子,用户可以用类Python的语法描述算子计算逻辑,且无需关注MindSpore框架对于算子定义的工程细节,让用户专注于算法本身。
Hybrid类型的自定义算子使用MindSpore Hybrid DSL描述算子内部计算逻辑的实现。用MindSpore Hybrid DSL定义的函数可以被AKG算子编译器解析进行JIT编译生成高效算子,在大规模模型的训练推理中使用。同时,用MindSpore Hybrid DSL定义的函数可以当做一个numpy
函数直接调用,方便用户调试的同时也可以灵活的切换到pyfunc 类型的自定义算子,做到一次开发,多个模式多个平台多个场景复用的自定义算子表达。
下面用例(test_custom_hybrid.py)介绍hybrid类型的自定义算子开发流程,其中自定义算子实现两个输入张量相加的功能。
import numpy as np
from mindspore import context, Tensor, ops
from mindspore.ops import ms_hybrid
context.set_context(device_target="GPU")
# 算子实现,Hybrid DSL
@ms_hybrid
def add(a, b):
c = output_tensor(a.shape, a.dtype)
for i0 in range(a.shape[0]):
for i1 in range(a.shape[1]):
c[i0, i1] = a[i0, i1] + b[i0, i1]
return c
if __name__ == "__main__":
# 定义hybrid类型的自定义算子(Custom的默认模式)
op = ops.Custom(add)
x0 = np.array([[0.0, 0.0], [1.0, 1.0]]).astype(np.float32)
x1 = np.array([[2.0, 2.0], [3.0, 3.0]]).astype(np.float32)
output = op(Tensor(x0), Tensor(x1))
print(output)
本例中,有如下几点需要说明:
Hybrid类型是Custom的默认类型。
Hybrid类型自定义算子的输入必须是一个带有
@ms_hybrid
的函数。Hybrid类型自定义算子定义时可以使用自带的自动shape/dtype推导函数,也可以手动输入shape/dtype推导函数。
执行用例:
python test_custom_hybrid.py
执行结果:
[[2. 2.]
[4. 4.]]
tbe类型的自定义算子开发
tbe类型的自定义算子使用TBE(Tensor Boost Engine)算子DSL,描述算子内部计算逻辑的实现。算子DSL开发可以参考TBE文档。
算子输出shape和数据类型推理可以通过定义Python函数实现,描述算子输出shape和数据类型的推导逻辑。
这种类型的自定义算子需要注册算子信息,算子信息生成方式请参考算子信息注册。
下面以test_custom_tbe.py为例介绍tbe类型的自定义算子开发流程,其中自定义算子实现两个输入张量相加的功能。
test_custom_tbe.py内容:
import numpy as np
from mindspore import context, Tensor
import mindspore.ops as ops
from mindspore.ops import DataType, CustomRegOp, custom_info_register
context.set_context(device_target="Ascend")
# 算子实现,注册算子信息
@custom_info_register(CustomRegOp() \
.input(0, "a") \
.input(1, "b") \
.output(0, "output") \
.dtype_format(DataType.F16_Default, DataType.F16_Default, DataType.F16_Default) \
.dtype_format(DataType.F32_Default, DataType.F32_Default, DataType.F32_Default) \
.target("Ascend") \
.get_op_info())
def add(a, b, output, kernel_name="add"):
import te.lang.cce
from te import tvm
data0 = tvm.placeholder(a.get("shape"), name="data0", dtype=a.get("dtype").lower())
data1 = tvm.placeholder(b.get("shape"), name="data1", dtype=b.get("dtype").lower())
res = te.lang.cce.vadd(data0, data1)
with tvm.target.cce():
sch = te.lang.cce.auto_schedule(res)
config = {"print_ir": False, "name": kernel_name, "tensor_list": [data0, data1, res]}
te.lang.cce.cce_build_code(sch, config)
if __name__ == "__main__":
# 定义tbe类型的自定义算子
op = ops.Custom(add, out_shape=lambda x, _: x, out_dtype=lambda x, _: x, func_type="tbe")
x0 = np.array([[0.0, 0.0], [1.0, 1.0]]).astype(np.float32)
x1 = np.array([[2.0, 2.0], [3.0, 3.0]]).astype(np.float32)
output = op(Tensor(x0), Tensor(x1))
print(output)
本例中,有如下几点需要说明:
用Python lambda函数定义输出shape和数据类型推理函数,并分别传给
Custom
原语的out_shape
和out_dtype
参数。本例中lambda函数表明输出shape和数据类型和第一个输入张量的信息相同。通过
CustomRegOp
生成算子信息,并通过custom_info_register
装饰器注册算子信息。
执行用例:
python test_custom_tbe.py
执行结果:
[[2. 2.]
[4. 4.]]
aicpu类型的自定义算子开发
aicpu类型的自定义算子采用AOT编译方式,要求算子开发者基于提供的特定接口,手写算子实现函数对应的源码文件,并提前将源码文件编译为动态链接库,然后框架会根据开发者在算子属性中配置的动态链接库名称,找到对应动态链接库并加载算子。具体算子实现参考CANN AICPU 自定义算子开发。
算子输出shape和数据类型推理可以通过定义Python函数实现,描述算子输出shape和数据类型的推导逻辑。
这种类型的自定义算子需要注册算子信息,算子信息生成方式请参考算子信息注册,aicpu类型的自定义算子,需要额外指定attr("cust_aicpu", "required", "str", "mindspore_aicpu_kernels")
的属性,用于MindSpore找到对应的算子实现的动态链接库。
需要注意的是,aicpu类型的自定义算子开发后编译成的动态链接库,需要存放到MindSpore的lib目录下,比如MindSpore安装在虚拟环境
/home/conda/envs/aicpu/lib/python3.7/site-packages/mindspore
下,则aicpu的so文件需要放到/home/conda/envs/aicpu/lib/python3.7/site-packages/mindspore/lib/
目录下。“cust_aicpu”的值为字符串,用算子动态链接库的名字去除
lib
前缀与.so
后缀表示,如libmindspore_aicpu_kernels.so
则设为"mindspore_aicpu_kernels"
即可。
下面以test_dropout_aicpu.py为例介绍aicpu类型的自定义算子开发流程,其中自定义算子实现了dropout的功能,并且编译好的算子动态链接库,我们命名为libmindspore_aicpu_kernels.so,并已将该动态链接库放至mindspore根目录的lib下。
test_dropout_aicpu.py内容:
import numpy as np
from mindspore import Tensor
import mindspore.context as context
import mindspore.nn as nn
import mindspore.ops as ops
from mindspore import dtype as mstype
from mindspore.ops import CustomRegOp, custom_info_register, DataType
context.set_context(mode=context.GRAPH_MODE, device_target="Ascend")
# 算子实现,注册算子信息
dropout2d_op_info = CustomRegOp("Dropout2D") \
.fusion_type("OPAQUE") \
.input(0, "x", "required") \
.output(0, "y", "required") \
.output(1, "mask", "required") \
.attr("keep_prob", "required", "float") \
.attr("cust_aicpu", "required", "str", "mindspore_aicpu_kernels") \
.dtype_format(DataType.BOOL_Default, DataType.BOOL_Default, DataType.BOOL_Default) \
.dtype_format(DataType.I8_Default, DataType.I8_Default, DataType.BOOL_Default) \
.dtype_format(DataType.I16_Default, DataType.I16_Default, DataType.BOOL_Default) \
.dtype_format(DataType.I32_Default, DataType.I32_Default, DataType.BOOL_Default) \
.dtype_format(DataType.I64_Default, DataType.I64_Default, DataType.BOOL_Default) \
.dtype_format(DataType.U8_Default, DataType.U8_Default, DataType.BOOL_Default) \
.dtype_format(DataType.U16_Default, DataType.U16_Default, DataType.BOOL_Default) \
.dtype_format(DataType.U32_Default, DataType.U32_Default, DataType.BOOL_Default) \
.dtype_format(DataType.U64_Default, DataType.U64_Default, DataType.BOOL_Default) \
.dtype_format(DataType.F16_Default, DataType.F16_Default, DataType.BOOL_Default) \
.dtype_format(DataType.F32_Default, DataType.F32_Default, DataType.BOOL_Default) \
.dtype_format(DataType.F64_Default, DataType.F64_Default, DataType.BOOL_Default) \
.target("Ascend") \
.get_op_info()
@custom_info_register(dropout2d_op_info)
def dropout2d_aicpu():
"""Dropout2D AiCPU register"""
return
# 定义自定义算子网络
class NetDropout2D(nn.Cell):
def __init__(self, keep_prob=0.5):
super(NetDropout2D, self).__init__()
self.op = ops.Custom(dropout2d_aicpu, out_shape=lambda x, _, cust_attr: (x, x), \
out_dtype=lambda x, _, cust_attr: (x, mstype.bool_), func_type="aicpu")
self.keep_prob = keep_prob
self.cust_aicpu_so_path = "mindspore_aicpu_kernels"
def construct(self, inputs):
return self.op(inputs, self.keep_prob, self.cust_aicpu_so_path)
if __name__ == "__main__":
# 定义aicpu类型的自定义算子
input_tensor = Tensor(np.ones([1, 1, 2, 3]), mstype.float32)
dropout2d_nn = NetDropout2D(0.5)
output, mask = dropout2d_nn(input_tensor)
print("output: ", output)
print("mask: ", mask)
本例中,有如下几点需要说明:
可以用多种方式指定
Custom
原语的out_shape
和out_dtype
参数,可以给定类型,也可以用Python lambda函数等设置。本例中lambda函数表明输出的两个shape与输入相同,第一个输出的数据类型和输入张量的信息相同,第二个输出的数据类型为bool类型。通过
CustomRegOp
生成算子信息,并通过custom_info_register
装饰器注册算子信息。
执行用例:
python test_dropout_aicpu.py
执行结果(由于dropout算子具有随机性,多次运行结果存在差异):
output : [[[[2. 2. 2.] [2. 2. 2.]]]]
mask: [[[[True True True] [True True True]]]]
aot类型的自定义算子开发
aot类型的自定义算子采用AOT编译方式,要求网络开发者基于特定接口,手写算子实现函数对应的源码文件,并提前将源码文件编译为动态链接库,然后在网络运行时框架会自动调用执行动态链接库中的函数。在算子实现的开发语言方面,GPU平台支持CUDA,CPU平台支持C和C++。源码文件中的算子实现函数的接口规范如下:
extern "C" int func_name(int nparam, void **params, int *ndims, int64_t **shapes, const char **dtypes, void *stream, void *extra);
其中,函数名func_name
可替换成任意有效函数名。返回值为int类型,约定0表示正常退出,非0表示发生异常。参数列表的含义如下:
nparam (int): 输入输出总数。比如算子有2个输入,1个输出,则nparam的值为3。
params (void **): 输入输出指针数组。比如算子有2个输入,1个输出,params[0]指向第一个输入数据,params[1]指向第二个输入数据,params[2]指向输出数据。
ndims (int *): 输入输出shape维度数组。比如params[i]是个shape[1024, 1024]的张量,则ndims[i]的值为2。
shapes (int64_t **): 输入输出shape数组。比如params[i]是个shape[1024, 1024]的张量,则shapes[i][0]的值为1024,shapes[i][1]的值为1024。
dtypes (const char **): 输入输出数据类型数组。dtypes里的元素取值可为:”float32”, “float16”, “float”, “float64”, “int”, “int8”, “int16”, “int32”, “int64”, “uint”, “uint8”, “uint16”, “uint32”, “uint64”, “bool”。
stream (void *): CUDA流指针,仅定义GPU算子实现时需要。
extra (void *): 用于后续扩展。
算子输出shape和数据类型推理可以通过定义Python函数实现,描述算子输出shape和数据类型的推导逻辑。
若自定义算子只支持特定的输入输出数据类型,则需要定义算子信息,算子信息生成方式请参考算子信息注册。
下面通过例子介绍GPU平台和CPU平台上aot类型的自定义算子开发流程,其中自定义算子实现两个输入张量相加的功能。
GPU示例
使用CUDA语言,编写算子实现的源码文件add.cu:
#define THREADS 1024
__global__ void CustomAddKernel(float *input1, float *input2, float *output, size_t size) {
auto idx = blockIdx.x * THREADS + threadIdx.x;
if (idx < size) {
output[idx] = input1[idx] + input2[idx];
}
}
extern "C" int CustomAdd(int nparam, void **params, int *ndims, int64_t **shapes, const char **dtypes, void *stream,
void *extra) {
cudaStream_t custream = static_cast<cudaStream_t>(stream);
if (nparam != 3) return 1;
void *input1 = params[0];
void *input2 = params[1];
void *output = params[2];
size_t size = 1;
for (int i = 0; i < ndims[2]; i++) {
size *= shapes[2][i];
}
int n = size / THREADS;
for (int i = 0; i < nparam; i++) {
if (strcmp(dtypes[i], "float32") != 0) {
return 2;
}
}
CustomAddKernel<<<n + 1, THREADS, 0, custream>>>(static_cast<float *>(input1), static_cast<float *>(input2),
static_cast<float *>(output), size);
return 0;
}
将add.cu编译成动态库add.so:
nvcc --shared -Xcompiler -fPIC -o add.so add.cu
编写测试用例test_custom_aot.py:
import numpy as np
from mindspore import context, Tensor
import mindspore.ops as ops
context.set_context(device_target="GPU")
if __name__ == "__main__":
# 定义aot类型的自定义算子
op = ops.Custom("./add.so:CustomAdd", out_shape=lambda x, _: x, out_dtype=lambda x, _: x, func_type="aot")
x0 = np.array([[0.0, 0.0], [1.0, 1.0]]).astype(np.float32)
x1 = np.array([[2.0, 2.0], [3.0, 3.0]]).astype(np.float32)
output = op(Tensor(x0), Tensor(x1))
print(output)
本例中,有如下几点需要说明:
本例中需要将test_custom_aot.py和add.so放置在同一目录下,若add.so在其他目录,则需要将
Custom
第一个参数里路径修改为add.so的绝对路径。用Python lambda函数定义输出shape和数据类型推理函数,并分别传给
Custom
原语的out_shape
和out_dtype
参数。本例中lambda函数表明输出shape和数据类型和第一个输入张量的信息相同。未注册算子信息,所以自定义算子的算子信息将会从算子输入中推理。
执行用例:
python test_custom_aot.py
执行结果:
[[2. 2.]
[4. 4.]]
CPU示例
使用C或者C++语言,编写算子实现的源码文件add.cc:
#include <string.h>
using size_t = decltype(sizeof(int));
using int64_t = decltype(sizeof(long));
extern "C" int CustomAdd(int nparam, void **params, int *ndims, int64_t **shapes, const char **dtypes, void *stream, void *extra) {
if (nparam != 3) return 1;
float *input1 = static_cast<float *>(params[0]);
float *input2 = static_cast<float *>(params[1]);
float *output = static_cast<float *>(params[2]);
size_t size = 1;
for (int i = 0; i < nparam; i++) {
size *= shapes[2][i];
}
for (int i = 0; i < nparam; i++) {
if (strcmp(dtypes[i], "float32") != 0) {
return 2;
}
}
for (int i = 0; i < size; i++) {
output[i] = input1[i] + input2[i];
}
return 0;
}
将add.cc编译成动态库add.so:
g++ --shared -fPIC -o add.so add.cc
编写测试用例test_custom_aot.py:
import numpy as np
from mindspore import context, Tensor
import mindspore.ops as ops
context.set_context(device_target="CPU")
if __name__ == "__main__":
# 定义aot类型的自定义算子
op = ops.Custom("./add.so:CustomAdd", out_shape=lambda x, _: x, out_dtype=lambda x, _: x, func_type="aot")
x0 = np.array([[0.0, 0.0], [1.0, 1.0]]).astype(np.float32)
x1 = np.array([[2.0, 2.0], [3.0, 3.0]]).astype(np.float32)
output = op(Tensor(x0), Tensor(x1))
print(output)
本例中,有如下几点需要说明:
本例中需要将test_custom_aot.py和add.so放置在同一目录下,若add.so在其他目录,则需要将
Custom
第一个参数里路径修改为add.so的绝对路径。用Python lambda函数定义输出shape和数据类型推理函数,并分别传给
Custom
原语的out_shape
和out_dtype
参数。本例中lambda函数表明输出shape和数据类型和第一个输入张量的信息相同。未注册算子信息,所以自定义算子的算子信息将会从算子输入中推理。
执行用例:
python test_custom_aot.py
执行结果:
[[2. 2.]
[4. 4.]]
pyfunc类型的自定义算子开发
pyfunc类型的自定义算子使用原生Python语法定义算子实现函数,描述算子内部计算逻辑的实现。网络运行时框架会自动调用此函数。
算子输出shape和数据类型推理可以通过定义Python函数实现,描述算子输出shape和数据类型的推导逻辑。
若自定义算子只支持特定的输入输出数据类型,则需要定义算子信息,算子信息生成方式请参考算子信息注册。
下面以test_custom_pyfunc.py为例介绍pyfunc类型的自定义算子开发流程,其中自定义算子实现两个输入张量相加的功能。
test_custom_pyfunc.py内容:
import numpy as np
from mindspore import context, Tensor
import mindspore.ops as ops
context.set_context(device_target="CPU")
def add(a, b):
return a + b
if __name__ == "__main__":
# 定义pyfunc类型的自定义算子
op = ops.Custom(add, out_shape=lambda x, _: x, out_dtype=lambda x, _: x, func_type="pyfunc")
x0 = np.array([[0.0, 0.0], [1.0, 1.0]]).astype(np.float32)
x1 = np.array([[2.0, 2.0], [3.0, 3.0]]).astype(np.float32)
output = op(Tensor(x0), Tensor(x1))
print(output)
本例中,有如下几点需要说明:
用Python lambda函数定义输出shape和数据类型推理函数,并分别传给
Custom
原语的out_shape
和out_dtype
参数。本例中lambda函数表明输出shape和数据类型和第一个输入张量的信息相同。未注册算子信息,所以自定义算子的算子信息将会从算子输入中推理。
执行用例:
python test_custom_pyfunc.py
执行结果:
[[2. 2.]
[4. 4.]]
julia类型的自定义算子开发
julia类型的自定义算子使用Julia语法定义算子实现函数,描述算子内部计算逻辑的实现。网络运行时框架会自动调用执行相应的Julia函数。
算子输出shape和数据类型推导可以通过定义Python函数实现,描述算子输出shape和数据类型的推导逻辑。
若自定义算子只支持特定的输入输出数据类型,则需要定义算子信息,算子信息生成方式请参考算子信息注册。
下面以两个输入张量相加为例,介绍julia类型的自定义算子开发流程:
首先,用户需要通过单独文件实现Julia函数,如(add.jl):
# add.jl
module Add
# inputs: x, y, output: z, output should use .= to inplace assign
function add(x, y, z)
z .= x + y
end
end
其次,在网络脚本中通过自定义算子方式引用上面所写的Julia函数,以test_custom_julia.py为例:
import numpy as np
from mindspore import context, Tensor
import mindspore.ops as ops
context.set_context(device_target="CPU")
if __name__ == "__main__":
# 定义julia类型的自定义算子
op = ops.Custom("./add.jl:Add:add", out_shape=lambda x, _: x, out_dtype=lambda x, _: x, func_type="julia")
x0 = np.array([[0.0, 0.0], [1.0, 1.0]]).astype(np.float32)
x1 = np.array([[2.0, 2.0], [3.0, 3.0]]).astype(np.float32)
output = op(Tensor(x0), Tensor(x1))
print(output)
本例中,有如下几点需要说明:
用Python lambda函数定义输出shape和数据类型推理函数,并分别传给
Custom
原语的out_shape
和out_dtype
参数。本例中lambda函数表明输出shape和数据类型和第一个输入张量的信息相同。未注册算子信息,所以自定义算子的算子信息将会从算子输入中推理。
执行用例:
python test_custom_julia.py
执行结果:
[[2. 2.]
[4. 4.]]
注意事项:
用户需确保下载正确版本的Julia,即version>=1.6.0。
由于运行时调用的Julia C api是从
libjulia.so
中获取的,因此需要用户设置julia/lib
到LD_LIBRARY_PATH
,以julia-1.6.5为例:# download julia-1.6.5 wget https://julialang-s3.julialang.org/bin/linux/x64/1.6/julia-1.6.5-linux-x86_64.tar.gz # extract file tar xvf julia-1.6.5-linux-x86_64.tar.gz # if $JULIA_DIR not exist export LD_LIBRARY_PATH=$PWD/julia-1.6.5/lib:$LD_LIBRARY_PATH # else export LD_LIBRARY_PATH=$JULIA_DIR/lib:$LD_LIBRARY_PATH
Custom
第一个入参指定用户书写的Julia函数需按照file_name:module_name:func_name
格式指定,file_name
需包含文件路径,建议使用绝对路径。Julia代码文件需包含
module
,module
内包含function
,且module
/function
都以end
结束。Julia函数的输入输出顺序需与算子的输入输出顺序一致。
Julia函数的最终输出,即kernel output的赋值需要使用
.=
,否则结果无法写入内存。Julia代码支持Julia的常用语法,参考https://docs.julialang.org/en/v1/,用户需自行保证语法正确,函数可正确执行。
用户想在Julia文件内使用Julia的第三方软件包,需自行下载对应软件以确保能正确调用,可以通过
import pkg; pkg.add("somepkg")
进行安装。julia array
在内存上是column major
排列的,而numpy array
是row major
排列的,如果Julia和numpy做比较,非elemwise计算需考虑内存排布。在Julia函数中,可以通过如下代码示例进行numpy array
和julia array
的相互转换:function change_input_to_row_major(x) return permutedims(reshape(x, reverse(size(x))), length(size(x)):-1:1) end function change_output_to_row_major(x) return reshape(permutedims(x, length(size(x)):-1:1), size(x)) end
以矩阵乘为例:
# julia array is column-major, numpy aray is row-major # user should change julia or numpy's layout to keep same behavior #= EXAMPLE A[2,3] B[3,4] C[2,4] NUMPY: [[1, 2, 3] [[1, 2, 3, 4] [[38, 44, 50, 56] [4, 5, 6]] [5, 6, 7, 8] [83, 98, 113,128]] [9,10,11,12]] JULIA: change_input_to_row_major: 1.inputs read numpy data from memory: [[1, 3, 5] [[1, 4, 7,10] [2, 4, 6]] [2, 5, 8,11] [3, 6, 9,12]] 2.inputs after reshape(reverse(shape)): [[1, 4] [[1, 5, 9] [2, 5] [2, 6,10] [3, 6]] [3, 7,11] [4, 8,12]] 3.inputs after transpose/permutedims: [[1, 2, 3] [[1, 2, 3, 4] [[38, 44, 50, 56] [4, 5, 6]] [5, 6, 7, 8] [83, 98, 113,128]] [9,10,11,12]] change_output_to_row_major: 1.output after transpose/permutedims: [[38, 83] [44, 98] [50,113] [56,128] 2.output after reshape: [[38, 50, 83, 113] [44, 56, 98, 128]] 3.output read numpy data from memory: [[38, 44, 50, 56] [83, 98,113, 128]] =# function foo!(x, y, z) x = change_input_to_row_major(x) y = change_input_to_row_major(y) z .= gemm(x, y, z) z .= change_output_to_row_major(z) end
akg类型的自定义算子开发
akg类型的自定义算子使用MindSpore AKG算子DSL,描述算子内部计算逻辑的实现。MindSpore AKG是基于TVM(Tensor Virtual Machine)和Polyhedral技术的算子开发和编译框架,支持Hybrid、IR builder和TVM compute等多种类型的算子DSL。
算子输出shape和数据类型推理可以通过定义Python函数实现,描述算子输出shape和数据类型的推导逻辑。
若算子包含属性或者只支持特定的输入输出数据类型或数据格式,则需要注册算子信息,算子信息生成方式请参考算子信息注册。若未注册算子信息,在后端做算子选择和映射的时候,将会从当前算子的输入中推导算子信息。
下面以test_custom_akg.py为例介绍akg类型的自定义算子开发流程,其中自定义算子实现两个输入张量相加的功能。
test_custom_akg.py内容:
import numpy as np
from mindspore import context, Tensor
import mindspore.ops as ops
context.set_context(device_target="GPU")
# 算子实现,Hybrid DSL
def add(a, b):
c = output_tensor(a.shape, a.dtype)
for i0 in range(a.shape[0]):
for i1 in range(a.shape[1]):
c[i0, i1] = a[i0, i1] + b[i0, i1]
return c
if __name__ == "__main__":
# 定义akg类型的自定义算子
op = ops.Custom(add, out_shape=lambda x, _: x, out_dtype=lambda x, _: x, func_type="akg")
x0 = np.array([[0.0, 0.0], [1.0, 1.0]]).astype(np.float32)
x1 = np.array([[2.0, 2.0], [3.0, 3.0]]).astype(np.float32)
output = op(Tensor(x0), Tensor(x1))
print(output)
本例中,有如下几点需要说明:
context.set_context(device_target="GPU")
表示算子运行在GPU平台,若要运行在Ascend平台,请编译Ascend版本的MindSpore,并将device_target的值设置为”Ascend”。用Python lambda函数定义输出shape和数据类型推理函数,并分别传给
Custom
原语的out_shape
和out_dtype
参数。本例中lambda函数表明输出shape和数据类型和第一个输入张量的信息相同。未注册算子信息,所以自定义算子的算子信息将会从算子输入中推理。
执行用例:
python test_custom_akg.py
执行结果:
[[2. 2.]
[4. 4.]]
进阶用法
算子信息注册
算子信息主要描述了算子实现函数所支持的输入输出类型、输入输出数据格式、属性和target(平台信息),它是后端做算子选择和映射时的依据。它通过CustomRegOp接口定义,通过custom_info_register装饰器或者Custom原语构造函数中的reg_info
参数,实现算子信息与算子实现函数的绑定,并最终注册到MindSpore C++侧的算子信息库。reg_info
参数优先级高于custom_info_register
装饰器。
算子信息中的target的值可以为”Ascend”或”GPU”或”CPU”,描述的是算子实现函数在当前target上所支持的输入输出类型、输入输出数据格式和属性等信息,对于同一个算子实现函数,其在不同target上支持的输入输出类型可能不一致,所以通过target进行区分。算子信息在同一target下只会被注册一次。
算子信息中定义输入输出信息的个数和顺序、算子实现函数中的输入输出信息的个数和顺序,两者要完全一致。
对于akg类型的自定义算子,若算子存在属性输入,则必须注册算子信息,算子信息中的属性名称与算子实现函数中使用的属性名称要一致;对于tbe类型的自定义算子,当前必须注册算子信息;对于aot类型的自定义算子,由于算子实现函数需要预先编译成动态库,所以无法通过装饰器方式绑定算子信息,只能通过
reg_info
参数传入算子信息。若自定义算子只支持特定的输入输出数据类型或数据格式,则需要注册算子信息,以便在后端做算子选择时进行数据类型和数据格式的检查。对于不提供算子信息的情况,则在后端做算子选择和映射的时候,将会从当前算子的输入中推导信息。
定义算子反向传播函数
如果算子要支持自动微分,需要定义其反向传播函数(bprop),然后将bprop函数传入Custom
原语构造函数的bprop
参数。你需要在bprop中描述利用正向输入、正向输出和输出梯度得到输入梯度的反向计算逻辑。反向计算逻辑可以使用内置算子或自定义Custom算子。
定义算子反向传播函数时需注意以下几点:
bprop函数的入参顺序约定为正向的输入、正向的输出、输出梯度。若算子为多输出算子,正向输出和输出梯度将以元组的形式提供。
bprop函数的返回值形式约定为输入梯度组成的元组,元组中元素的顺序与正向输入参数顺序一致。即使只有一个输入梯度,返回值也要求是元组的形式。
下面test_grad.py为例,展示反向传播函数的用法:
import numpy as np
from mindspore import context, Tensor
from mindspore.nn import Cell
import mindspore.ops as ops
context.set_context(mode=context.GRAPH_MODE, device_target="GPU")
# 自定义算子正向实现
def square(x):
y = output_tensor(x.shape, x.dtype)
for i0 in range(x.shape[0]):
y[i0] = y[i0] * y[i0]
return y
# 自定义算子反向实现
def square_grad(x, dout):
dx = output_tensor(x.shape, x.dtype)
for i0 in range(x.shape[0]):
dx[i0] = 2.0 * x[i0]
for i0 in range(x.shape[0]):
dx[i0] = dx[i0] * dout[i0]
return dx
# 反向传播函数
def bprop():
op = ops.Custom(square_grad, lambda x, _: x, lambda x, _: x, func_type="akg")
def custom_bprop(x, out, dout):
dx = op(x, dout)
return (dx,)
return custom_bprop
class Net(Cell):
def __init__(self):
super(Net, self).__init__()
# 定义akg类型的自定义算子,并提供反向传播函数
self.op = ops.Custom(square, lambda x: x, lambda x: x, bprop=bprop(), func_type="akg")
def construct(self, x):
return self.op(x)
if __name__ == "__main__":
x = np.array([1.0, 4.0, 9.0]).astype(np.float32)
sens = np.array([1.0, 1.0, 1.0]).astype(np.float32)
dx = ops.GradOperation(sens_param=True)(Net())(Tensor(x), Tensor(sens))
print(dx)
其中:
反向传播函数中使用是的akg类型的自定义算子,算子定义与使用需要分开,即自定义算子在
custom_bprop
函数外面定义,在custom_bprop
函数内部使用。
执行用例:
python test_grad.py
执行结果:
[ 2. 8. 18.]
更多示例可参考MindSpore源码中tests/st/ops/graph_kernel/custom下的用例。
MindSpore Hybrid语法规范
MindSpore Hybrid DSL的语法与Python语法类似,例如函数定义,缩进和注释。把MindSpore Hybrid DSL书写的函数加上ms_hybrid装饰器后可以当做普通的numpy
函数使用,也可以用于Custom的进行自定义算子。
import numpy as np
from mindspore import ops, Tensor
from mindspore.ops import ms_hybrid
@ms_hybrid
def outer_product(a, b):
d = allocate(a.shape, a.dtype)
c = output_tensor(a.shape, a.dtype)
for i0 in range(a.shape[0]):
for i1 in range(b.shape[1]):
c[i0, i1] = 0.0
for i2 in range(a.shape[1]):
d[i0, i2] = 2 * a[i0, i2]
c[i0, i1] = c[i0, i1] + sin(d[i0, i2] * b[i2, i1])
return c
np_x = np.random.normal(0, 1, [4, 4]).astype(np.float32)
np_y = np.random.normal(0, 1, [4, 4]).astype(np.float32)
print(outer_product(np_x, np_y))
input_x = Tensor(np_x)
input_y = Tensor(np_y)
test_op_akg = ops.Custom(outer_product)
out = test_op_akg(input_x, input_y)
print(out)
MindSpore Hybrid DSL的详细语法规则如下。
变量
MindSpore Hybrid DSL中的变量包括Tensor和Scalar两种形式。
对于Tensor类型的变量,除了在输入中提供的变量,其他变量都需要在使用前申明 shape
和 dtype
。
对于输出Tensor使用
output_tensor
,用法为:output_tensor(shape, dtype)
。对于中间结果使用
allocate
,用法为:allocate(shape, dtype)
。
Tensor分配的示例代码如下:
@ms_hybrid
def kernel_func(a, b):
# a和b作为输入tensor,可以直接使用
# d为一个数据类型为fp16,形状为(2,)的Tensor,在下面的code中作为中间变量使用
d = allocate((2,), "float16")
# c为一个数据类型与b相同,形状与a相同的Tensor,在下面的code中作为函数输出使用
c = output_tensor(a.shape, b.dtype)
# d作为中间变量,给c赋值
d[0] = b[0, 0]
for i in range(4):
for j in range(4):
c[i, j] = d[0]
# c作为输出
return c
对于Scalar类变量,会将他第一次的赋值运算作为声明。赋值操作可以是一个立即数,也可以是一个计算表达式。Scalar类变量第一次赋值的地方决定了他的定义域(例如,某一个for loop之内),在定义域之外使用Scalar变量会报错。
Scalar变量使用的示例代码如下:
@ms_hybrid
def kernel_func(a):
c = output_tensor(a.shape, a.dtype)
for i in range(10): # i loop
for j in range(5): # j loop
# 用一个立即数给Scalar赋值
d = 2.0
# 用表达式给Scalar赋值
e = a[i, j]
# 正常使用scalar
c[i, j] = d + e
# Wrong: c[0, 0] = d
# 不能在超出Scalar d的定义域(j loop)之外的范围使用
return c
与原生Python语言不同的是,变量一旦创建,shape
和 dtype
就不能改变。
计算表达
MindSpore Hybrid DSL支持基本的四则运算表达,包括 +, -, *, /
,及赋值运算符,包括 =, +=, -=, *=, /=
。
用户可以像写Python表达一样书写计算表达式利用变量计算和为变量赋值。
所有的计算需要基于标量计算,如果是Tensor对象那么写清楚所有index,即 C[i, j] = A[i, j] + B[i, j]
。当前不支持 C = A + B
这种向量化的写法。
在书写计算表达式时,用户需要自行负责类型的合法性。表达式左右两边的类型需要保持一致,否则在算子编译环节会报错。计算式中的整数立即数会被认定为int32,而浮点立即数会被认定为float32。MindSpore Hybrid DSL不提供任何隐式的类型转化,所有类型转化都需要显式的书写出来。类型名即对应类型转换函数的名字,包括:
int32
float16
float32
(仅gpu后端)int8, int16, int64, float64
类型转换代码示例如下:
@ms_hybrid
def kernel_func(a):
c = output_tensor((2,), "float16")
# Wrong: c[0] = 0.1 此处c的类型为fp16, 而0.1的类型为fp32
c[0] = float16(0.1) # float16(0.1)把表达式的类型转化为fp16
c[1] = float16(a[0, 0]) # float16(a[0, 0])把表达式的类型转化为fp16
return c
循环
当前只支持 for
loop,不支持 while
, break
, continue
关键词。
基本循环的写法和Python一样,循环维度的表达可以使用 range
和 grid
关键词。range
表示一维的循环维度,接受一个参数表示循环的上限,例如:
@ms_hybrid
def kernel_func(a, b):
c = output_tensor((3, 4, 5), "float16")
for i in range(3):
for j in range(4):
for k in range(5):
out[i, j, k] = a[i, j, k] + b[i, j, k]
return c
则循环表达的计算空间为 0 <= i < 3, 0 <= j < 4, 0 <= k < 5
。
grid
表示多维网格,接受的输入为 tuple
,例如上面的代码用 grid
表达后如下:
@ms_hybrid
def kernel_func(a, b):
c = output_tensor((3, 4, 5), "float16")
for arg in grid((4,5,6)):
out[arg] = a[arg] + b[arg]
return c
此时,参数 arg
等价于一个三维index (i,j,k)
,其上限分别为4,5,6。对参数 arg
我们可以取其中的某个分量,例如
@ms_hybrid
def kernel_func(a, b):
c = output_tensor((3, 4, 5), "float16")
for arg in grid((4,5,6)):
out[arg] = a[arg] + b[arg[0]]
return c
那么循环内的表达式等价于 out[i, j, k] = a[i, j, k] + b[i]
。
属性
当前只支持对Tensor对象属性shape和dtype,例如 a.shape
,c.dtype
。
一个Tensor的shape属性会表达为一个 tuple
,我们可以对它进行固定下标的取分量操作,例如 a.shape[0]
。
同时,在 grid
关键词中我们接受某个Tensor对象的 shape
属性,那么循环的维度由Tensor的维度决定。例如:
@ms_hybrid
def kernel_func(a, b):
c = output_tensor(a.shape, "float16")
for arg in grid(a.shape):
out[arg] = a[arg] + b[arg[0]]
return c
如果a是一个二维Tensor,那么循环内的表达式等价于 out[i, j] = a[i, j] + b[i]
。而如果a是一个三维Tensor,那么循环内的表达式等价于 out[i, j, k] = a[i, j, k] + b[i]
。
关键词
当前支持的关键词包括
全平台支持数学函数:
log
,exp
,sqrt
,tanh
,power
,floor
内存分配:
allocate
,output_tensor
数据类型转化:
int32
,float16
,float32
,float64
循环表达:
for
,range
,grid
在当前版本中,我们对GPU后端提供部分进阶关键词:
数学函数:
rsqrt
,erf
,isnan
,sin
,cos
,isinf
,isfinite
,atan
,atan2
,expm1
,floor
,ceil
,trunc
,round
,ceil_div
数据类型转换:
int8
,int16
,int64
常见报错信息及错误归因
为了帮助用户高效地开发和定位bug,MindSpore Hybrid DSL 提供如下报错信息,包括
TypeError: 当使用了
while
,break
和continue
等 MindSpore Hybrid DSL 不支持的 Python 关键词。ValueError:
使用了不属于上面的内置函数名;
对张量取非
shape
或者dtype
的属性。
其他常见报错:
“SyntaxError”: 写的 DSL 不符合基本 Python 语法(非上面的进阶用法中定义的MindSpore Hybrid DSL语法),由 Python 解释器本身报错;
“ValueError: Compile error”及“The pointer[kernel_mod] is null”: Python DSL符合语法但是编译失败,由 AKG 报错,具体错误原因检查 AKG 相关报错信息;
“Launch graph failed”: Python DSL符合语法,编译成功但是运行失败。具体原因参考硬件的报错信息。例如在昇腾芯片上遇到运行失败时,MindSpore 端会显示 “Ascend error occurred” 及对应硬件报错信息。