mindspore.set_context
- mindspore.set_context(**kwargs)[源代码]
设置运行环境的context。
在运行程序之前,应配置context。如果没有配置,默认情况下将根据设备目标进行自动设置。
说明
设置属性时,必须输入属性名称。net初始化后不建议更改模式,因为一些操作的实现在Graph模式和PyNative模式下是不同的。默认值:
PYNATIVE_MODE
。某些配置适用于特定的设备,某些参数将会在未来版本中废弃并移除(在第二列中用D标记),建议使用第四列的方法代替。 有关详细信息,请参见下表:
功能分类
配置参数
硬件平台支持
替换接口
系统配置
device_id (D)
CPU/GPU/Ascend
mindspore.set_device
device_target (D)
CPU/GPU/Ascend
mindspore.set_device
max_device_memory (D)
GPU/Ascend
mindspore.runtime.set_memory
variable_memory_max_size (D)
Ascend
mindspore.runtime.set_memory
mempool_block_size (D)
GPU/Ascend
mindspore.runtime.set_memory
op_timeout (D)
Ascend
ascend.op_debug.execute_timeout
调试配置
save_graphs (D)
CPU/GPU/Ascend
MS_DEV_SAVE_GRAPHS
save_graphs_path (D)
CPU/GPU/Ascend
MS_DEV_SAVE_GRAPHS_PATH
deterministic (D)
Ascend
mindspore.set_deterministic
print_file_path
Ascend
NA
env_config_path
CPU/GPU/Ascend
NA
precompile_only (D)
CPU/GPU/Ascend
MS_DEV_PRECOMPILE_ONLY
reserve_class_name_in_scope
CPU/GPU/Ascend
NA
pynative_synchronize (D)
CPU/GPU/Ascend
mindspore.runtime.launch_blocking
debug_level (D)
CPU/GPU/Ascend
NA
执行控制
mode
CPU/GPU/Ascend
NA
enable_reduce_precision
Ascend
NA
aoe_tune_mode (D)
Ascend
ascend.op_tuning.aoe_tune_mode
aoe_config (D)
Ascend
ascend.op_tuning.aoe_job_type
check_bprop (D)
CPU/GPU/Ascend
NA
max_call_depth (D)
CPU/GPU/Ascend
mindspore.set_recursion_limit
grad_for_scalar (D)
CPU/GPU/Ascend
derivative
enable_compile_cache (D)
CPU/GPU/Ascend
MS_COMPILER_CACHE_ENABLE
inter_op_parallel_num (D)
CPU/GPU/Ascend
mindspore.runtime.dispatch_threads_num
runtime_num_threads (D)
CPU/GPU/Ascend
cpu.op_tuning.threads_num
compile_cache_path
CPU/GPU/Ascend
NA
disable_format_transform
GPU
NA
support_binary
CPU/GPU/Ascend
NA
memory_optimize_level (D)
CPU/GPU/Ascend
mindspore.runtime.set_memory
memory_offload
GPU/Ascend
NA
ascend_config (D)
Ascend
ascend.op_precision.precision_mode ascend.op_precision.op_precision_mode ascend.op_precision.matmul_allow_hf32 ascend.op_precision.conv_allow_hf32 ascend.op_tuning.op_compile
jit_syntax_level
CPU/GPU/Ascend
NA
gpu_config (D)
GPU
gpu.op_precision.conv_allow_tf32 gpu.op_precision.matmul_allow_tf32 gpu.op_precision.conv_fprop_algo gpu.op_precision.conv_wgrad_algo gpu.op_precision.conv_dgrad_algo
jit_config
CPU/GPU/Ascend
NA
exec_order
Ascend
NA
- 参数:
device_id (int) - 表示目标设备的ID,其值必须在[0, device_num_per_host-1]范围中,且 device_num_per_host 的值不应超过4096。默认值:
0
。此参数将被弃用,将在后续版本中删除,请配合 device_target 使用接口mindspore.set_device()
代替。device_target (str) - 表示待运行的目标设备,支持 'Ascend'、 'GPU'和 'CPU'。如果未设置此参数,则使用MindSpore包对应的后端设备。此参数将被弃用,将在后续版本中删除,请配合 device_id 使用接口
mindspore.set_device()
代替。max_device_memory (str) - 设置设备可用的最大内存。格式为"xxGB"。默认值:
1024GB
。实际使用的内存大小是设备的可用内存和 max_device_memory 值中的最小值。 max_device_memory 需要在程序运行之前设置。当使能虚拟内存时,过小的 max_device_memory 会导致频繁的碎片整理,影响性能。此参数将被弃用,将在后续版本中删除,请使用接口mindspore.runtime.set_memory()
代替。variable_memory_max_size (str) - 此参数将被弃用,将在后续版本中删除,请使用接口
mindspore.runtime.set_memory()
代替。mempool_block_size (str) - 关闭虚拟内存下生效,设置设备内存池的块大小。格式为"xxGB"。默认值:
1GB
。最小值是1GB。实际使用的内存池块大小是设备的可用内存和 mempool_block_size 值中的最小值。当内存足够时,将按照此值扩展内存。此参数将被弃用,将在后续版本中删除,请使用接口mindspore.runtime.set_memory()
代替。op_timeout (int) - 设置一个算子的最大执行时间,以秒为单位。如果执行时间超过这个值,系统将终止该任务。0意味着使用默认值,AI Core和AICPU算子在不同硬件上的默认值有差异,详细信息请查看 昇腾社区关于aclrtSetOpExecuteTimeOut文档说明。MindSpore默认设置值:
900
。save_graphs (bool 或 int) - 表示是否保存中间编译图。默认值:
0
。可用的选项为:False或0:不保存中间编译图。
1:运行时会输出图编译过程中生成的一些中间文件。
True或2:生成更多后端流程相关的ir文件。
3:生成可视化计算图和更多详细的前端ir图。
当网络结构复杂时将 save_graphs 属性设为
2
或者3
时可能会出现耗时过长的情况。如需要快速定位问题,可先设置 save_graphs 属性为1
。当 save_graphs 属性设为
1
、2
、3
或者True
时, save_graphs_path 属性用于设置中间编译图的存储路径。默认情况下,计算图保存在当前目录下。 此参数将被弃用,将在后续版本中删除,请使用环境变量 MS_DEV_SAVE_GRAPHS 替代。save_graphs_path (str) - 表示保存计算图的路径。默认值:
"."
。如果指定的目录不存在,系统将自动创建该目录。在分布式训练中,图形将被保存到 save_graphs_path/rank_${rank_id}/ 目录下。 rank_id 为集群中当前设备的ID。此参数将被弃用,将在后续版本中删除,请使用环境变量 MS_DEV_SAVE_GRAPHS_PATH 替代。deterministic (str) - 表示是否使能算子确定性运行模式。值必须在['ON','OFF']范围内,默认值:
'OFF'
。ON:开启算子确定性运行模式。
OFF:关闭算子确定性运行模式。
当确定性开启时,模型中的算子将在Ascend中具有确定性。这意味着,如果算子在同一硬件上使用相同的输入运行多次,则每次都会有完全相同的输出。这对于调试模型很有用。 此参数将被弃用,将在后续版本中删除,请使用接口
mindspore.set_deterministic()
代替。enable_dump (bool) - 此参数已弃用,将在下一版本中删除。
save_dump_path (str) - 此参数已弃用,将在下一版本中删除。
print_file_path (str) - 此参数将被弃用,将在后续版本中删除。
env_config_path (str) - 此参数将被弃用,将在后续版本中删除。
precompile_only (bool) - 表示是否仅预编译网络。默认值:
False
。设置为True
时,仅编译网络,而不执行网络。此参数将被弃用,将在后续版本中删除,请使用环境变量 MS_DEV_PRECOMPILE_ONLY 替代。reserve_class_name_in_scope (bool) - 此参数将被弃用,将在后续版本中删除。
pynative_synchronize (bool) - 表示是否在PyNative模式下启动设备同步执行。默认值:
False
。设置为False
时,将在设备上异步执行算子。当算子执行出错时,将无法定位特定错误脚本代码的位置。当设置为True
时,将在设备上同步执行算子。这将降低程序的执行性能。此时,当算子执行出错时,可以根据错误的调用栈来定位错误脚本代码的位置。此参数将被弃用,将在后续版本中删除,请使用接口mindspore.runtime.launch_blocking()
代替。mode (int) - 表示在GRAPH_MODE(0)或PYNATIVE_MODE(1)模式中运行,两种模式都支持所有后端。默认值:
PYNATIVE_MODE
。enable_reduce_precision (bool) - 表示是否开启降低精度计算。默认值:
True
。设置为True
时,不支持用户指定的精度,且精度将自动更改。设置为False
时,如果未指定用例的精度,则会报错并退出。aoe_tune_mode (str) - 表示启动AOE调优,默认不设置。设置为
online
时,将启动在线调优,设置为offline
时,将为离线调优保存GE图 。aoe_config (dict) - 设置aoe工具专用的参数,默认不设置。
job_type (str): 设置调优类型,有算子调优和子图调优。默认为算子调优。
"1"
: 设置为子图调优。"2"
: 设置为算子调优。
check_bprop (bool) - 表示是否检查反向传播节点,以确保反向传播节点输出的shape和数据类型与输入参数相同。默认值:
False
。此参数将被弃用,将在后续版本中删除。max_call_depth (int) - 指定函数调用的最大深度。其值必须为正整数。默认值:
1000
。当嵌套Cell太深或子图数量太多时,需要设置 max_call_depth 参数。系统最大堆栈深度应随着 max_call_depth 的调整而设置为更大的值,否则可能会因为系统堆栈溢出而引发 "core dumped" 异常。此参数将被弃用,将在后续版本中删除,请使用 mindspore.set_recursion_limit() 接口替代。grad_for_scalar (bool) - 表示是否获取标量梯度。默认值:
False
。当 grad_for_scalar 设置为True时,则可以导出函数的标量输入。由于后端目前不支持伸缩操作,所以该接口只支持在前端可推演的简单操作。此参数将被弃用,将在后续版本中删除,请使用张量求导的方式。enable_compile_cache (bool) - 表示是否加载或者保存图编译缓存。当 enable_compile_cache 被设置为True时,在第一次执行的过程中,一个编译缓存会被生成并且导出为一个MINDIR文件。当该网络被再次执行时,如果 enable_compile_cache 仍然为True并且网络脚本没有被更改,那么这个编译缓存会被加载。注意目前只支持有限的Python脚本更改的自动检测,这意味着可能有正确性风险。默认值:
False
。当前不支持编译后大于2G的图。这是一个实验特性,可能会被更改或者删除。此参数将被弃用,将在后续版本中删除,请使用环境变量 MS_COMPILER_CACHE_ENABLE 替代。compile_cache_path (str) - 保存编译缓存的路径。默认值:
"."
。如果目录不存在,系统会自动创建这个目录。缓存会被保存到如下目录: compile_cache_path/rank_${rank_id}/ 。 rank_id 是集群上当前设备的ID。此参数将被弃用,将在后续版本中删除,请使用环境变量 MS_COMPILER_CACHE_PATH 替代。inter_op_parallel_num (int) - 算子间并行数控制。 默认值为
0
,表示由框架默认指定。runtime_num_threads (int) - 运行时actor和CPU算子核使用的线程池线程数,必须大于等于
0
。默认值为30
,如果同时运行多个进程,应将该值设置得小一些,以避免线程争用。如果设置为1,则无法使能运行时异步流水能力,可能会影响执行性能。此参数将被弃用,将在后续版本中删除。请使用接口mindspore.device_context.cpu.op_tuning.threads_num()
代替。disable_format_transform (bool) - 表示是否取消NCHW到NHWC的自动格式转换功能。当fp16的网络性能不如fp32的时,可以设置 disable_format_transform 为
True
,以尝试提高训练性能。默认值:False
。support_binary (bool) - 是否支持在图形模式下运行.pyc或.so。如果要支持在图形模式下运行.so或.pyc,可将 support_binary 置为
True
,并运行一次.py文件,从而将接口源码保存到接口定义.py文件中,因此要保证该文件可写。然后将.py文件编译成.pyc或.so文件,即可在图模式下运行。memory_optimize_level (str) - 内存优化级别,默认值:
O0
。其值必须在 ['O0', 'O1'] 范围中。O0: 执行性能优先,关闭 SOMAS (Safe Optimized Memory Allocation Solver) 和一些其他内存优化。
O1: 内存性能优先,使能 SOMAS 和一些其他内存优化。
此参数将被弃用,将在后续版本中删除,请使用接口
mindspore.runtime.set_memory()
代替。memory_offload (str) - 是否开启Offload功能,在内存不足场景下将空闲数据临时拷贝至Host侧内存。其值必须在['ON', 'OFF']范围中,默认值为
'OFF'
。ON:开启memory offload功能。在Ascend硬件平台,在图编译等级不为O0时本参数不生效;设置memory_optimize_level='O1'时本参数不生效。
OFF:关闭memory offload功能。
ascend_config (dict) - 设置Ascend硬件平台专用的参数,默认不设置。 precision_mode、jit_compile和atomic_clean_policy参数的默认值属于实验性质参数,将来可能会发生变化。
precision_mode (str): 混合精度模式设置。推理网络默认值:
force_fp16
。其值范围如下:force_fp16: 当算子既支持float16,又支持float32时,直接选择float16。
allow_fp32_to_fp16: 对于矩阵类算子,使用float16。对于矢量类算子,优先保持原图精度,如果网络模型中算子支持float32,则保留原始精度float32,如果网络模型中算子不支持float32,则直接降低精度到float16。
allow_mix_precision: 自动混合精度,针对全网算子,按照内置的优化策略,自动将部分算子的精度降低到float16或bfloat16。
must_keep_origin_dtype: 保持原图精度。
force_fp32: 当矩阵计算的算子输入为float16,输出既支持float16又支持float32时,强制转换成float32输出。
allow_fp32_to_bf16: 对于矩阵类算子,使用bfloat16。对于矢量类算子,优先保持原图精度,如果网络模型中算子支持float32,则保留原始精度float32,如果网络模型中算子不支持float32,则直接降低精度到bfloat16。
allow_mix_precision_fp16: 自动混合精度,针对全网算子,按照内置的优化策略,自动将部分算子的精度降低到float16。
allow_mix_precision_bf16: 自动混合精度,针对全网算子,按照内置的优化策略,自动将部分算子的精度降低到bfloat16。
jit_compile (bool): 表示是否选择在线编译。当设置为
True
时,优先选择在线编译,当设置为False
时,优先选择系统中已经编译好的算子二进制文件,提升编译性能。默认设置为静态shape选择在线编译,动态shape选择算子二进制文件。atomic_clean_policy (int): 表示清理网络中atomic算子占用的内存的策略。默认值:
1
。0:集中清理网络中所有atomic算子占用的内存。
1:不集中清理内存,对网络中每一个atomic算子进行单独清零。当网络中内存超限时,可以尝试此种清理方式,但可能会导致一定的性能损耗。
matmul_allow_hf32 (bool): 是否为Matmul类算子使能FP32转换为HF32。默认值:
False
。这是一个实验特性,可能会被更改或者删除。如果您想了解更多详细信息, 请查询 昇腾社区 了解。conv_allow_hf32 (bool): 是否为Conv类算子使能FP32转换为HF32。默认值:
True
。这是一个实验特性,可能会被更改或者删除。如果您想了解更多详细信息, 请查询 昇腾社区 了解。exception_dump (str): 开启Ascend算子异常dump,提供计算异常时候的输入输出信息。可以为
"0"
,"1"
,"2"
。为"0"
时关闭异常dump;为"1"
时dump出AICore异常算子输入输出数据;为"2"
时dump出AICore异常算子输入数据,保存信息减少,但可提升性能。默认值:"2"
。op_precision_mode (str): 算子精度模式配置文件的所在路径。如果您想了解更多详细信息, 请查询 昇腾社区 了解。
op_debug_option (str): 表示Ascend算子调试配置,默认不开启,当前只支持内存访问越界检测,可配置为
oom
。oom
: 涉及从全局内存中读写数据,例如读写算子数据等,该选项开启全局内存访问越界检测,实际执行算子时,若出现内存越界,AscendCL会返回EZ9999
错误码。
ge_options (dict): 设置CANN的options配置项,配置项分为
global
和session
二类 。这是一个实验特性,可能会被更改或者删除。 详细的配置请查询 options配置说明 。 ge_options 中的配置项可能与 ascend_config 中的配置项重复,若同时设置了 ascend_config 和 ge_options 中的相同配置项,则以 ge_options 中设置的为准。global (dict): 设置global类的选项。
session (dict): 设置session类的选项。
parallel_speed_up_json_path (Union[str, None]): 并行加速配置文件,配置项可以参考 parallel_speed_up.json 。 当设置为None时,表示不启用。
recompute_comm_overlap (bool): 为
True
时表示开启反向重计算和通信掩盖。默认值:False
。matmul_grad_comm_overlap (bool): 为
True
时表示开启反向Matmul和通信掩盖。默认值:False
。enable_task_opt (bool): 为
True
时表示开启通信融合进行通信算子task数量优化。默认值:False
。enable_grad_comm_opt (bool): 为
True
时表示开启梯度dx计算与数据并行梯度通信的掩盖,暂时不支持 LazyInline 功能下开启。默认值:False
。enable_opt_shard_comm_opt (bool): 为
True
时表示开启正向计算与优化器并行的AllGather通信的掩盖,暂时不支持 LazyInline 功能下开启。默认值:False
。enable_concat_eliminate_opt (bool): 为
True
时表示开启Concat消除优化,当前在开启细粒度双副本优化时有收益。默认值:False
。enable_begin_end_inline_opt (bool): 为
True
时表示开启首尾micro_batch子图的内联,用于半自动并行子图模式,流水线并行场景,一般需要和其他通信计算掩盖优化一起使用。默认值:False
。compute_communicate_fusion_level (int): 控制通算融合的级别。默认值:
0
。注:此功能需要配套Ascend Training Solution 24.0.RC2以上版本使用。0: 不启用通算融合。
1: 仅对前向节点使能通算融合。
2: 仅对反向节点使能通算融合。
3: 对所有节点使能通算融合。
dataset_broadcast_opt_level (int): 数据集读取的优化级别, 目前只支持O0/O1模式,O2模式下不生效。默认值:
0
。0: 不启用数据集读取优化。
1: 优化流水线并行中,Stage间的数据读取。
2: 优化模型并行维度数据的读取。
3: 同时优化场景1和2。
bias_add_comm_swap (bool): 为
True
时表示开启matmul-add结构下,通信算子与add算子执行顺序互换。当前仅支持bias为一维的情况。默认值:False
。enable_allreduce_slice_to_reducescatter (bool): 为
True
时,表示开启allreduce优化。在batchmatmul模型并行引入allreduce的场景中,如果后续节点是配置了模型并行的stridedslice算子,在已识别可优化的模式中,将allreduce优化为reducescatter。典型的用在开启了groupwise alltoall的MoE模块。默认值:False
。enable_interleave_split_concat_branch (bool): 为
True
时,表示针对带enable_interleave属性的split和concat算子形成的分支,开启通信计算并行优化。典型的使用场景为MoE模块并行场景,对输入数据进行split后,各切片数据进行MoE模块运算,再对分支结果进行concat,开启后各分支的MoE模块进行通信计算并行。默认值:False
。enable_interleave_parallel_branch (bool): 为
True
时,表示针对可并行的分支,如果分支汇聚点带parallel_branch属性,开启通信计算并行优化。典型的使用场景为MoE模块带路由专家和共享专家分支的并行场景,开启后并行分支进行通信计算并行。默认值:False
。
host_scheduling_max_threshold (int): 控制静态小图(根图)执行时是否使用动态shape调度的最大阈值,默认阈值为0。如果静态根图节点个数小于最大阈值,则使用动态shape调度。大模型场景,该方式可以节约stream资源。如果静态根图节点个数大于最大阈值,则保持原有流程不变。
hccl_watchdog (bool): 开启一个线程监控集合通信故障。默认值:
True
。
jit_syntax_level (int) - 当通过GRAPH_MODE或者@jit装饰器触发图编译时,此选项用于设置JIT语法支持级别。 其值必须为
STRICT
或LAX
,默认值为LAX
。全部级别都支持所有后端。STRICT
: 仅支持基础语法,且执行性能最佳。可用于MindIR导入导出。LAX
: 最大程度地兼容Python所有语法。执行性能可能会受影响,不是最佳。由于存在可能无法导出的语法,不能用于MindIR导入导出。
debug_level (int) - 设置调试过程的配置。其值必须为
RELEASE
或DEBUG
。默认值:RELEASE
。RELEASE
: 正常场景下使用,一些调试信息会被丢弃以获取一个较好的编译性能。DEBUG
: 当错误发生时,用来调试,在编译过程中,更多的调试信息会被记录下来。
此参数将被弃用,将在后续版本中删除。
gpu_config (dict) - 设置GPU硬件平台专用的参数,默认不设置。 目前只支持GPU硬件平台上设置conv_fprop_algo、conv_dgrad_algo、conv_wgrad_algo、conv_allow_tf32和matmul_allow_tf32参数。
conv_fprop_algo (str): 指定cuDNN的卷积前向算法。默认值:
normal
。其值范围如下:normal:使用cuDNN自带的启发式搜索算法,会根据卷积形状和类型快速选择合适的卷积算法。该参数不保证性能最优。
performance: 使用cuDNN自带的试运行搜索算法,会根据卷积形状和类型试运行所有卷积算法,然后选择最优算法。该参数保证性能最优。
implicit_gemm: 该算法将卷积隐式转换成矩阵乘法,完成计算。不需要显式将输入张量数据转换成矩阵形式保存。
implicit_precomp_gemm: 该算法将卷积隐式转换成矩阵乘法,完成计算。但是需要一些额外的内存空间去保存预计算得到的索引值,以便隐式地将输入张量数据转换成矩阵形式。
gemm: 该算法将卷积显式转换成矩阵乘法,完成计算。在显式完成矩阵乘法过程中,需要额外申请内存空间,将输入转换成矩阵形式。
direct: 该算法直接完成卷积计算,不会隐式或显式的将卷积转换成矩阵乘法。
fft: 该算法利用快速傅里叶变换完成卷积计算。需要额外申请内存空间,保存中间结果。
fft_tiling: 该算法利用快速傅里叶变换完成卷积计算,但是需要对输入进行分块。同样需要额外申请内存空间,保存中间结果,但是对大尺寸的输入,所需内存空间小于
fft
算法。winograd: 该算法利用Winograd变换完成卷积计算。需要额外申请内存空间,保存中间结果。
winograd_nonfused: 该算法利用Winograd变形算法完成卷积计算。需要额外申请内存空间,保存中间结果。
conv_dgrad_algo (str): 指定cuDNN的卷积输入数据的反向算法。默认值:
normal
。其值范围如下:normal:使用cuDNN自带的启发式搜索算法,会根据卷积形状和类型快速选择合适的卷积算法。该参数不保证性能最优。
performance: 使用cuDNN自带的试运行搜索算法,会根据卷积形状和类型试运行所有卷积算法,然后选择最优算法。该参数保证性能最优。
algo_0: 该算法将卷积表示为矩阵乘积的和,而没有实际显式地形成保存输入张量数据的矩阵。求和使用原子加法操作完成,因此结果是不确定的。
algo_1: 该算法将卷积表示为矩阵乘积,而没有实际显式地形成保存输入张量数据的矩阵。结果是确定的。
fft: 该算法利用快速傅里叶变换完成卷积计算。需要额外申请内存空间,保存中间结果。结果是确定的。
fft_tiling: 该算法利用快速傅里叶变换完成卷积计算,但是需要对输入进行分块。同样需要额外申请内存空间,保存中间结果,但是对大尺寸的输入,所需内存空间小于
fft
算法。结果是确定的。winograd: 该算法利用Winograd变换完成卷积计算。需要额外申请内存空间,保存中间结果。结果是确定的。
winograd_nonfused: 该算法利用Winograd变形算法完成卷积计算。需要额外申请内存空间,保存中间结果。结果是确定的。
conv_wgrad_algo (str): 指定cuDNN的卷积输入卷积核的反向算法。默认值:
normal
。其值范围如下:normal:使用cuDNN自带的启发式搜索算法,会根据卷积形状和类型快速选择合适的卷积算法。该参数不保证性能最优。
performance: 使用cuDNN自带的试运行搜索算法,会根据卷积形状和类型试运行所有卷积算法,然后选择最优算法。该参数保证性能最优。
algo_0: 该算法将卷积表示为矩阵乘积的和,而没有实际显式地形成保存输入张量数据的矩阵。求和使用原子加法操作完成,因此结果是不确定的。
algo_1: 该算法将卷积表示为矩阵乘积,而没有实际显式地形成保存输入张量数据的矩阵。结果是确定的。
algo_3: 该算法类似于
algo_0
,但使用一些小的工作空间来预计算一些索引。结果也是不确定的。fft: 该算法利用快速傅里叶变换完成卷积计算。需要额外申请内存空间,保存中间结果。结果是确定的。
fft_tiling: 该算法利用快速傅里叶变换完成卷积计算,但是需要对输入进行分块。同样需要额外申请内存空间,保存中间结果,但是对大尺寸的输入,所需内存空间小于
fft
算法。结果是确定的。winograd_nonfused: 该算法利用Winograd变形算法完成卷积计算。需要额外申请内存空间,保存中间结果。结果是确定的。
conv_allow_tf32 (bool): 该标志表示是否开启卷积在cuDNN下的TF32张量核计算。默认值:
True
。matmul_allow_tf32 (bool): 该标志表示是否开启矩阵乘在CUBLAS下的TF32张量核计算。默认值:
False
。
jit_config (dict) - 设置全局编译选项的配置,只在使用Cell或者jit装饰器定义的网络中生效,默认不设置。 context设置全局jit config,而JitConfig设置局部网络的jit config,二者同时存在时,全局jit config不会覆盖局部网络的jit config。
jit_level (str): 用来控制编译优化级别。默认值为空,框架根据产品类别自动选择优化级别,Atlas训练产品为O2,其余产品均为O0。动态Shape场景须为O0/O1,不支持O2。其值范围如下:
O0: 除必要影响功能的优化外,其他优化均关闭,使用逐算子执行的执行方式。
O1: 使能常用优化和自动算子融合优化,使用逐算子执行的执行方式。
O2: 开启极致性能优化,使用下沉的执行方式。
infer_boost (str): 用来使能推理模式。默认值为“off”,表示关闭。其值范围如下:
on: 开启推理模式,推理性能得到较大提升。
off: 关闭推理模式,使用前向运算进行推理,性能较差。
exec_order (str) - 算子执行时的排序方法,GRAPH_MODE(0)下jit_level为O0或者O1时生效。不同的执行顺序会使得网络的执行内存和性能有所差异,当前仅支持三种排序方法:bfs、dfs和gpto,默认方法为bfs。
bfs:默认的排序方法,广度优先排序,具备较好的通信掩盖效果,执行性能相对较好。
dfs:可选择的排序方法,深度优先排序,性能相对bfs执行序较差,但内存占用较少,建议在其他执行序OOM的场景下尝试dfs。
gpto:可选择的排序方法,该方法综合多种执行序选择一个性能相对较好的方法,在多副本并行的场景下可能会有一些性能收益。
- 异常:
ValueError - 输入key不是上下文中的属性。
样例:
>>> import mindspore as ms >>> ms.set_context(mode=ms.PYNATIVE_MODE) >>> ms.set_context(precompile_only=True) >>> ms.set_context(device_target="Ascend") >>> ms.set_context(device_id=0) >>> ms.set_context(save_graphs=True, save_graphs_path="./model.ms") >>> ms.set_context(enable_reduce_precision=True) >>> ms.set_context(reserve_class_name_in_scope=True) >>> ms.set_context(variable_memory_max_size="6GB") >>> ms.set_context(aoe_tune_mode="online") >>> ms.set_context(aoe_config={"job_type": "2"}) >>> ms.set_context(check_bprop=True) >>> ms.set_context(max_device_memory="3.5GB") >>> ms.set_context(mempool_block_size="1GB") >>> ms.set_context(print_file_path="print.pb") >>> ms.set_context(max_call_depth=80) >>> ms.set_context(env_config_path="./env_config.json") >>> ms.set_context(grad_for_scalar=True) >>> ms.set_context(enable_compile_cache=True, compile_cache_path="./cache.ms") >>> ms.set_context(pynative_synchronize=True) >>> ms.set_context(runtime_num_threads=10) >>> ms.set_context(inter_op_parallel_num=4) >>> ms.set_context(disable_format_transform=True) >>> ms.set_context(memory_optimize_level='O0') >>> ms.set_context(memory_offload='ON') >>> ms.set_context(deterministic='ON') >>> ms.set_context(ascend_config={"precision_mode": "force_fp16", "jit_compile": True, ... "atomic_clean_policy": 1, "op_precision_mode": "./op_precision_config_file", ... "op_debug_option": "oom", ... "ge_options": {"global": {"ge.opSelectImplmode": "high_precision"}, ... "session": {"ge.exec.atomicCleanPolicy": "0"}}}) >>> ms.set_context(jit_syntax_level=ms.STRICT) >>> ms.set_context(debug_level=ms.context.DEBUG) >>> ms.set_context(gpu_config={"conv_fprop_algo": "performance", "conv_allow_tf32": True, ... "matmul_allow_tf32": True}) >>> ms.set_context(jit_config={"jit_level": "O0"}) >>> ms.set_context(exec_order="gpto")