mindspore.Profiler

class mindspore.Profiler(**kwargs)[源代码]

MindSpore用户能够通过该类对神经网络的性能进行采集。可以通过导入 mindspore.Profiler 然后初始化Profiler对象以开始分析,使用 Profiler.analyse() 停止收集并分析结果。可通过 MindSpore Insight 工具可视化分析结果。目前,Profiler支持AICORE算子、AICPU算子、HostCPU算子、内存、设备通信、集群等数据的分析。

参数:
  • output_path (str, 可选) - 表示输出数据的路径。默认值: "./data"

  • profiler_level (ProfilerLevel, 可选) -(仅限Ascend)表示采集性能数据级别。默认值:None

    • ProfilerLevel.Level0: 最精简的采集性能数据级别,采集计算类算子的耗时数据和通信类大算子的基础数据。

    • ProfilerLevel.Level1: 在Level0的基础上额外采集CANN层中AscendCL数据、AICORE性能数据以及通信类小算子数据。

    • ProfilerLevel.Level2: 在Level1的基础上额外采集CANN层中GE和Runtime数据。

  • op_time (bool, 可选) -(Ascend/GPU)表示是否收集算子性能数据,默认值: True

  • profile_communication (bool, 可选) -(仅限Ascend)表示是否在多设备训练中收集通信性能数据。当值为 True 时,收集这些数据。在单卡训练中,该参数的设置无效。使用此参数时, op_time 必须设置成 True 。默认值: False

  • profile_memory (bool, 可选) -(仅限Ascend)表示是否收集Tensor内存数据。当值为 True 时,收集这些数据。使用此参数时, op_time 必须设置成 True。在图编译等级为O2时收集算子内存数据,需要从第一个step开始采集。默认值: False

  • parallel_strategy (bool, 可选) -(仅限Ascend)表示是否收集并行策略性能数据, 默认值: False

  • start_profile (bool, 可选) - 该参数控制是否在Profiler初始化的时候开启数据采集。默认值: True

  • aicore_metrics (int, 可选) -(仅限Ascend)收集的AICORE性能数据类型,使用此参数时, op_time 必须设置成 True ,且值必须包含在[-1, 0, 1, 2, 3, 4, 5, 6],默认值: 0 ,每种类型包含的数据项如下:

    • -1: 不收集任何AICORE数据。

    • 0: ArithmeticUtilization,包含mac_fp16/int8_ratio、vec_fp32/fp16/int32_ratio、vec_misc_ratio等。

    • 1: PipeUtilization,包含vec_ratio、mac_ratio、scalar_ratio、mte1/mte2/mte3_ratio、icache_miss_rate等。

    • 2: Memory,包含ub_read/write_bw、l1_read/write_bw、l2_read/write_bw、main_mem_read/write_bw等。

    • 3: MemoryL0,包含l0a_read/write_bw、l0b_read/write_bw、l0c_read/write_bw等。

    • 4: ResourceConflictRatio,包含vec_bankgroup/bank/resc_cflt_ratio等。

    • 5: MemoryUB,包含ub_read/write_bw_mte, ub_read/write_bw_vector, ub_/write_bw_scalar等。

    • 6: L2Cache,包含write_cache_hit, write_cache_miss_allocate, r0_read_cache_hit, r1_read_cache_hit等。本功能仅支持Atlas A2 训练系列产品。

  • l2_cache (bool, 可选) -(仅限Ascend)是否收集l2缓存数据,当值为 True 时,收集这些数据。默认值: False

  • hbm_ddr (bool, 可选) -(仅限Ascend)是否收集片上内存/DDR内存读写速率数据,当值为 True 时,收集这些数据。默认值: False

  • pcie (bool, 可选) -(仅限Ascend)是否收集PCIe带宽数据,当值为 True 时,收集这些数据。默认值: False

  • sync_enable (bool, 可选) -(仅限GPU)Profiler是否用同步的方式收集算子耗时,默认值: True

    • True: 同步方式,在把算子发送到GPU之前,在CPU端记录开始时间戳。然后在算子执行完毕返回到CPU端后,再记录结束时间戳。算子耗时为两个时间戳的差值。

    • False: 异步方式,算子耗时为从CPU发送到GPU的耗时。这种方式能减少因增加Profiler对整体训练时间的影响。

  • data_process (bool, 可选) -(Ascend/GPU)表示是否收集数据准备性能数据,默认值: False

  • timeline_limit (int, 可选) -(Ascend/GPU)设置限制timeline文件存储上限大小(单位M),使用此参数时, op_time 必须设置成 True 。默认值: 500

  • profile_framework (str, 可选) -(Ascend/GPU)需要收集的host信息类别,可选参数为["all", "time", None],如果设置值不为None,会在指定的profiler目录下生成子目录host_info,存放收集到的Host侧的内存和时间文件。使用此参数时,必须使能 op_time 参数。默认值:"None"

    • "all": 记录host侧时间戳。

    • "time": 与"all"参数相同。

    • None: 不记录host信息。

  • with_stack (bool, 可选) - (Ascend)表示是否收集Python侧的调用栈的数据,此数据在timeline中采用火焰图的形式呈现,使用此参数时,必须使能 op_timeprofile_framework 参数。默认值: False

  • data_simplification (bool, 可选) - (仅限Ascend)是否开启数据精简,开启后将在导出性能数据后删除FRAMEWORK目录数据以及其他多余数据,仅保留profiler的交付件以及PROF_XXX目录下的原始性能数据,以节省空间。默认值: True

  • analyse_only (bool, 可选) - (Ascend/GPU) 表示是否只解析性能数据,不采集性能数据。该参数为实验性参数,用户不需要设置。默认值: False

  • rank_id (int, 可选) - (Ascend/GPU) 设置解析时的rank id。该参数为实验性参数,用户不需要设置。默认值: 0

  • env_enable (bool, 可选) - (Ascend/GPU) 表示是否使能环境变量采集方式。该参数为实验性参数,用户不需要设置。默认值: False

异常:
  • RuntimeError - 当CANN的版本与MindSpore版本不匹配时,生成的ascend_job_id目录结构MindSpore无法解析。

支持平台:

Ascend GPU

样例:

>>> import numpy as np
>>> import mindspore as ms
>>> from mindspore import nn
>>> import mindspore.dataset as ds
>>> from mindspore import Profiler
>>> from mindspore.profiler import ProfilerLevel
>>>
>>> class Net(nn.Cell):
...     def __init__(self):
...         super(Net, self).__init__()
...         self.fc = nn.Dense(2,2)
...     def construct(self, x):
...         return self.fc(x)
>>>
>>> def generator():
...     for i in range(2):
...         yield (np.ones([2, 2]).astype(np.float32), np.ones([2]).astype(np.int32))
>>>
>>> def train(net):
...     optimizer = nn.Momentum(net.trainable_params(), 1, 0.9)
...     loss = nn.SoftmaxCrossEntropyWithLogits(sparse=True)
...     data = ds.GeneratorDataset(generator, ["data", "label"])
...     model = ms.train.Model(net, loss, optimizer)
...     model.train(1, data)
>>>
>>> if __name__ == '__main__':
...     # If the device_target is GPU, set the device_target to "GPU"
...     ms.set_context(mode=ms.GRAPH_MODE, device_target="Ascend")
...
...     # Init Profiler
...     # Note that the Profiler should be initialized before model.train
...     profiler = Profiler(profiler_level=ProfilerLevel.Level0)
...
...     # Train Model
...     net = Net()
...     train(net)
...
...     # Profiler end
...     profiler.analyse()
add_metadata(key: str, value: str)[源代码]

上报自定义metadata键值对数据。

参数:
  • key (str) - metadata键值对的key。

  • value (str) - metadata键值对的value。

样例:

>>> from mindspore import Profiler
>>> # Profiler init.
>>> profiler = Profiler()
>>> # Call Profiler add_metadata
>>> profiler.add_metadata("test_key", "test_value")
>>> # Profiler end
>>> profiler.analyse()
add_metadata_json(key: str, value: str)[源代码]

上报自定义metadata键值对value为json字符串数据。

参数:
  • key (str) - metadata键值对的key。

  • value (str) - metadata键值对的value,格式为json字符串。

样例:

>>> import json
>>> from mindspore import Profiler
>>> # Profiler init.
>>> profiler = Profiler()
>>> # Call Profiler add_metadata_json
>>> profiler.add_metadata_json("test_key", json.dumps({"key1": 1, "key2": 2}))
>>> # Profiler end, metadata will be saved in profiler_metadata.json
>>> profiler.analyse()
analyse(offline_path=None, pretty=False, step_list=None, mode='sync')[源代码]

收集和分析训练的性能数据,支持在训练中和训练后调用。样例如上所示。

参数:
  • offline_path (Union[str, None], 可选) - 需要使用离线模式进行分析的数据路径。离线模式用于非正常退出场景。对于在线模式,此参数应设置为 None 。默认值: None

  • pretty (bool, 可选) - 对json文件进行格式化处理。此参数默认值为 False,即不进行格式化。

  • step_list (list, 可选) - 只解析指定step的性能数据,指定的step必须是连续的整数。此参数默认值为 None,即进行全解析。

  • mode (str, 可选) - 解析模式,同步解析或异步解析,可选参数为["sync", "async"], 默认值为 "sync"

    • "sync": 同步模式解析性能数据,会阻塞当前进程。

    • "async": 异步模式,另起一个子进程解析性能数据,不会阻塞当前进程。由于解析进程会额外占用CPU资源,请根据实际资源情况开启该模式。

样例:

>>> from mindspore.train import Callback
>>> from mindspore import Profiler
>>> class StopAtStep(Callback):
...     def __init__(self, start_step=1, stop_step=5):
...         super(StopAtStep, self).__init__()
...         self.start_step = start_step
...         self.stop_step = stop_step
...         self.profiler = Profiler(start_profile=False)
...
...     def step_begin(self, run_context):
...         cb_params = run_context.original_args()
...         step_num = cb_params.cur_step_num
...         if step_num == self.start_step:
...             self.profiler.start()
...
...     def step_end(self, run_context):
...         cb_params = run_context.original_args()
...         step_num = cb_params.cur_step_num
...         if step_num == self.stop_step:
...             self.profiler.stop()
...
...     def end(self, run_context):
...         self.profiler.analyse(step_list=[2,3,4], mode="sync")
classmethod offline_analyse(path: str, pretty=False, step_list=None, data_simplification=True)[源代码]

离线分析训练的性能数据,性能数据采集结束后调用。

参数:
  • path (str) - 需要进行离线分析的profiling数据路径,指定到profiler上层目录。

  • pretty (bool, 可选) - 对json文件进行格式化处理。此参数默认值为 False,即不进行格式化。

  • step_list (list, 可选) - 只解析指定step的性能数据,指定的step必须是连续的整数。此参数默认值为 None,即进行全解析。

  • data_simplification (bool, 可选) - 数据精简开关功能。默认值为 True,即开启数据精简。

样例:

>>> from mindspore import Profiler
>>> Profiler.offline_analyse("./profiling_path")
op_analyse(op_name, device_id=None)[源代码]

获取primitive类型的算子性能数据。

参数:
  • op_name (str 或 list) - 表示要查询的primitive算子类型。

  • device_id (int, 可选) - 设备卡号,表示指定解析哪张卡的算子性能数据。在网络训练或者推理时使用,该参数可选。基于离线数据解析使用该接口时,默认值: 0

异常:
  • TypeError - op_name 参数类型不正确。

  • TypeError - device_id 参数类型不正确。

  • RuntimeError - 在Ascend上使用该接口获取性能数据。

支持平台:

GPU CPU

样例:

>>> from mindspore import Profiler
>>> from mindspore import nn
>>> from mindspore import Model
>>> # Profiler init.
>>> profiler = Profiler()
>>> # Train Model or eval Model, taking LeNet5 as an example.
>>> # Refer to https://gitee.com/mindspore/docs/blob/r2.4.1/docs/mindspore/code/lenet.py
>>> net = LeNet5()
>>> optimizer = nn.Momentum(net.trainable_params(), learning_rate=0.1, momentum=0.9)
>>> loss = nn.SoftmaxCrossEntropyWithLogits(sparse=True)
>>> # Create the dataset taking MNIST as an example.
>>> # Refer to https://gitee.com/mindspore/docs/blob/r2.4.1/docs/mindspore/code/mnist.py
>>> dataloader = create_dataset()
>>> model = Model(net, loss, optimizer)
>>> model.train(5, dataloader, dataset_sink_mode=False)
>>>
>>> # Profiler end
>>> profiler.analyse()
>>>
>>> profiler.op_analyse(op_name=["BiasAdd", "Conv2D"])
start()[源代码]

开启Profiler数据采集。可以按条件开启Profiler。

异常:
  • RuntimeError - Profiler已经开启。

  • RuntimeError - 如果 start_profile 参数未设置或设置为 True

样例:

>>> from mindspore.train import Callback
>>> from mindspore import Profiler
>>> class StopAtStep(Callback):
...     def __init__(self, start_step, stop_step):
...         super(StopAtStep, self).__init__()
...         self.start_step = start_step
...         self.stop_step = stop_step
...         self.profiler = Profiler(start_profile=False)
...
...     def step_begin(self, run_context):
...         cb_params = run_context.original_args()
...         step_num = cb_params.cur_step_num
...         if step_num == self.start_step:
...             self.profiler.start()
...
...     def step_end(self, run_context):
...         cb_params = run_context.original_args()
...         step_num = cb_params.cur_step_num
...         if step_num == self.stop_step:
...             self.profiler.stop()
...
...     def end(self, run_context):
...         self.profiler.analyse()
stop()[源代码]

停止Profiler。可以按条件停止Profiler。

异常:
  • RuntimeError - Profiler没有开启。

样例:

>>> from mindspore.train import Callback
>>> from mindspore import Profiler
>>> class StopAtEpoch(Callback):
...     def __init__(self, start_epoch, stop_epoch):
...         super(StopAtEpoch, self).__init__()
...         self.start_epoch = start_epoch
...         self.stop_epoch = stop_epoch
...         self.profiler = Profiler(start_profile=False)
...
...     def epoch_begin(self, run_context):
...         cb_params = run_context.original_args()
...         epoch_num = cb_params.cur_epoch_num
...         if epoch_num == self.start_epoch:
...             self.profiler.start()
...
...     def epoch_end(self, run_context):
...         cb_params = run_context.original_args()
...         epoch_num = cb_params.cur_epoch_num
...         if epoch_num == self.stop_epoch:
...             self.profiler.stop()
...
...     def end(self, run_context):
...         self.profiler.analyse()