mindinsight.debugger
MindSpore调试器是为图模式训练提供的调试工具,可以用来查看并分析计算图节点的中间结果。 在MindSpore图模式的训练过程中,用户无法方便地获取到计算图中间节点的结果,使得训练调试变得很困难。
使用MindSpore调试器,用户可以:在MindInsight调试器界面结合计算图,查看图节点的输出结果;设置监测点,监测训练异常情况(比如检查张量溢出),在异常发生时追踪错误原因;查看权重等参数的变化情况;查看图节点和源代码的对应关系。
调试器API是为离线调试提供的Python API接口,使用之前需要先保存Dump数据。保存Dump数据的方法参考 使用Dump功能在Graph模式调试 。
- class mindinsight.debugger.DumpAnalyzer(dump_dir, mem_limit=None)[源代码]
用来检查Dump数据的分析器。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
dump_dir (str) - 存储Dump数据文件的目录。
mem_limit (int,可选) - 检查监测点的内存限制(以MB为单位),可选值:从2048MB到2147483647MB,None表示不设限制,只受限于计算机内存。默认值:None。
- 支持平台:
Ascend
GPU
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
- check_watchpoints(watchpoints, error_on_no_value=False)[源代码]
批量检查给定监测点。
说明
为了提升速度,应该同时给出迭代下的所有监测点,避免多次读取张量。
check_watchpoints 函数在调用的时候会启动新的进程,需要通过 if __name__ == '__main__' 进行调用。
参数:
watchpoints (Iterable[Watchpoint]) - 监测点列表。
error_on_no_value (bool,可选) - 当指定的张量没有存储在 dump_dir 路径中时,是否抛出错误码。默认值:False。
返回:
Iterable[WatchpointHit],监测点命中列表,并按张量落盘时间排序。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> from mindinsight.debugger import (TensorTooLargeCondition, ... Watchpoint) >>> >>> def test_watchpoints(): ... my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") ... tensors = my_run.select_tensors( ... query_string="Conv2D-op13", ... use_regex=True, ... iterations=[0], ... ranks=[0], ... slots=[0] ... ) ... watchpoint = Watchpoint(tensors=tensors, ... condition=TensorTooLargeCondition(abs_mean_gt=0.0)) ... # the check_watchpoints function start a new process needs to be called through the main entry ... hit = list(my_run.check_watchpoints(watchpoints=[watchpoint]))[0] ... # print(str(hit)) ... # the print result is as follows ... # Watchpoint TensorTooLarge triggered on tensor: ... # rank: 0 ... # graph_name: kernel_graph_0 ... # node_name: Default/network-WithLossCell/_backbone-AlexNet/conv2-Conv2d/Conv2D-op13 ... # slot: 0 ... # iteration: 0 ... # Threshold: {'abs_mean_gt': 0.0} ... # Hit detail: the setting for watchpoint is abs_mean_gt = 0.0. ... # The actual value of the tensor is abs_mean_gt = 0.06592023578438996. ... >>> if __name__ == "__main__": ... test_watchpoints() ...
- export_graphs(output_dir=None)[源代码]
将计算图导出到 output_dir 路径下的xlsx文件中。
这些文件将包含图节点的堆栈信息。
参数:
output_dir (str,可选) - 保存文件的输出目录,None表示使用当前的工作目录。默认值:None。
返回:
str,生成文件的路径。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> res = my_run.export_graphs()
- get_input_nodes(node)[源代码]
获取指定节点的输入节点信息。
参数:
node (Node) - 指定节点。
返回:
Iterable[Node],指定节点的输入节点。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> node_list = list(my_run.select_nodes(query_string="Conv2D-op13")) >>> input_nodes = my_run.get_input_nodes(node_list[0])
- get_iterations(ranks=None)[源代码]
获取有Dump数据的迭代序号列表。
参数:
ranks (Union[int, list[int], None],可选) - 指定逻辑卡号。逻辑卡号是指运行分布式训练时,将使用的设备从0开始编号,此编号称为逻辑卡号,例如,对于8卡计算机,指定训练时只使用4-7卡,那么4-7卡分别对应逻辑卡号0-3。如果设置成None,将返回所有逻辑卡的迭代序号列表。默认值:None。
返回:
Iterable[int],有Dump数据的迭代序号列表,按从小到大排序。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> iterations = my_run.get_iterations() >>> print(list(iterations)) [0]
- get_output_nodes(node)[源代码]
获取指定节点的输出节点。
参数:
node (Node) - 指定节点。
返回:
Iterable[Node],该节点的输出节点。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> node_list = list(my_run.select_nodes(query_string="Conv2D-op13")) >>> out_nodes = my_run.get_output_nodes(node_list[0])
- get_ranks()[源代码]
获取有Dump数据的逻辑卡号列表。
返回:
Iterable[int],当前Dump目录中的逻辑卡号列表。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> ranks = my_run.get_ranks() >>> print(list(ranks)) [0]
- list_affected_nodes(tensor)[源代码]
列出使用指定张量作为输入的节点。
受影响的节点是指使用给定张量作为输入的节点。如果一个节点受到给定张量的影响,那么当给定的张量发生变化时,该节点的输出值很可能会发生变化。
参数:
tensor (DebuggerTensor) - 指定张量。
返回:
Iterable[Node],受指定张量影响的节点。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> tensor_list = list(my_run.select_tensors(query_string="Conv2D-op13")) >>> affected_nodes = my_run.list_affected_nodes(tensor_list[0])
- select_nodes(query_string, use_regex=False, select_by='node_name', ranks=None, case_sensitive=True)[源代码]
筛选节点。
根据节点名称或节点堆栈信息选择符合要求的节点,具体用法请参考参数说明。
参数:
query_string (str) - 查询字符串。对于要选择的节点,匹配目标字段必须包含或能匹配到查询的字符串。
use_regex (bool,可选) - 是否对目标字段按照查询字符串进行正则匹配。默认值:False。
select_by (str,可选) - 选择节点时要搜索的字段。可用值为“node_name”、“code_stack”。“node_name”表示根据节点的名称进行筛选。“code_stack”表示对系统的堆栈信息进行筛选。默认值:“node_name”。
ranks (Union[int, list[int], None],可选) - 要选择的逻辑卡号或者逻辑卡号列表,None表示将考虑所有逻辑卡。选定的节点必须存在于指定的逻辑卡上。默认值:None。
case_sensitive (bool,可选) - 对目标字段进行匹配时是否区分大小写。默认值:True。
返回:
Iterable[Node],匹配的节点。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> nodes = my_run.select_nodes("Conv2D-op13")
- select_tensors(query_string, use_regex=False, select_by='node_name', iterations=None, ranks=None, slots=None, case_sensitive=True)[源代码]
筛选张量。
根据给定的筛选条件选择目录中匹配的张量,具体用法请参考参数说明。
参数:
query_string (str) - 查询字符串。对于要选择的张量,匹配目标字段必须包含或能匹配到查询字符串。
use_regex (bool,可选) - 指明查询对象是否为正则表达式。默认值:False。
select_by (str,可选) - 选择张量时要搜索的字段。可用值为“node_name”、“code_stack”。“node_name”表示在图中搜索张量的节点名称。“code_stack”表示输出该张量的节点的堆栈信息。默认值:“node_name”。
iterations (Union[int, list[int], None],可选) - 要选择的迭代序号或迭代序号列表,None表示选择保存的所有迭代。默认值:None。
ranks (Union[int, list[int], None],可选) - 要选择的逻辑卡号或逻辑卡号列表,None表示将选择所有逻辑卡。默认值:None。
slots (list[int],可选) - 所选张量的编号,None表示将选择所有编号。默认值:None。
case_sensitive (bool,可选) - 选择张量时是否区分大小写。默认值:True。
返回:
Iterable[DebuggerTensor],匹配的张量。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> tensors = my_run.select_tensors("Conv2D-op13")
- class mindinsight.debugger.Node(node_feature)[源代码]
计算图中的节点。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
node_feature (namedtuple) - 节点特征,包含以下信息:
name (str) - 节点名称。
rank (int) - 逻辑卡号。
stack (iterable[dict]) - 堆栈信息,每一项的格式为:
{ 'file_path': str, 'line_no': int, 'code_line': str }
graph_name (str) - 图名称。
root_graph_id (int) - 根图id。
说明
用户不应该手动实例化此类。 这个类的实例是不可修改的。
- get_input_tensors(iterations=None, slots=None)[源代码]
获取当前节点的输入张量。
参数:
iterations (Iterable[int],可选) - 指定迭代序号列表,None,表示将考虑所有可用的迭代。默认值:None。
slots (Iterable[int],可选) - 指定输入张量的编号列表,None表示会返回所有的输入张量。默认值:None。
返回:
Iterable[DebuggerTensor],节点的输入张量列表。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> node = list(my_run.select_nodes("Conv2D-op13"))[0] >>> input_tensors = node.get_input_tensors(iterations=[0], slots=[0])
- get_output_tensors(iterations=None, slots=None)[源代码]
获取当前节点的输出张量。
参数:
iterations (Iterable[int],可选) - 指定迭代序号列表,None表示将考虑所有可用的迭代。默认值:None。
slots (Iterable[int],可选) - 指定输出张量的编号列表,None表示会返回所有的输出张量。默认值:None。
返回:
Iterable[DebuggerTensor],节点的输出张量。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> node = list(my_run.select_nodes("Conv2D-op13"))[0] >>> output_tensors = node.get_output_tensors(iterations=[0], slots=[0])
- property graph_name
获取当前节点的图名称。
返回:
str,图名称。
- property name
获取当前节点的全名。
返回:
str,当前节点的全名。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> node = list(my_run.select_nodes("conv"))[0] >>> print(node.name) conv1.weight
- property rank
获取当前节点逻辑卡号。
返回:
int,当前节点所属的逻辑卡号。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> node = list(my_run.select_nodes("conv"))[0] >>> print(node.rank) 0
- property root_graph_id
获取当前节点所属的根图id。
返回:
int,根图id。
- property stack
获取当前节点的堆栈信息。
返回:
iterable[dict],每一项的格式为:
{ 'file_path': str, 'line_no': int, 'code_line': str }
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> node = list(my_run.select_nodes("Conv2D-op13"))[0] >>> # print(node.stack) >>> # the print result is as follows >>> # [{'file_path': '/path', 'line_no': 266, 'code_line': 'output = self.conv2d(x, self.weight)', >>> # 'has_substack': False}, >>> # {'file_path': '/path', 'line_no': 55, 'code_line': 'x = self.conv2(x), 'has_substack': False}]
- class mindinsight.debugger.DebuggerTensor(node, slot, iteration)[源代码]
具有特定逻辑卡号、迭代序号和调试信息的张量。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
node (Node) - 输出此张量的节点。
slot (int) - 节点上张量的编号。
iteration (int) - 张量的迭代序号。
说明
用户不应该手动实例化此类。 这个类的实例是不可修改的。 DebuggerTensor 始终是节点的输出张量。
- property iteration
获取张量的迭代序号。
返回:
int,张量的迭代序号。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> tensors = list(my_run.select_tensors("conv")) >>> print(tensors[0].iteration) 0
- property node
获取输出此张量的节点。
返回:
Node,输出这个张量的节点。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> tensors = list(my_run.select_tensors("conv")) >>> print(tensors[0].node) rank: 0 graph_name: kernel_graph_0 node_name: conv1.weight
- property rank
rank代表的是生成张量的设备逻辑卡的卡号。
返回:
int,生成张量的设备的逻辑卡的卡号。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> tensors = list(my_run.select_tensors("conv")) >>> print(tensors[0].rank) 0
- property slot
节点的输出可能有几个张量,slot指的是张量的编号。
返回:
int,节点上生成张量的编号。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> tensors = list(my_run.select_tensors("conv")) >>> print(tensors[0].slot) 0
- value()[源代码]
获取张量的值。
返回:
Union[numpy.array, None],如果在相关迭代中找不到数据文件,则该值可能为None。
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> >>> def test_debugger_tensor(): ... my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") ... tensors = list(my_run.select_tensors("conv")) ... # the tensors[0].value() maybe start the new process ... value = tensors[0].value() ... return value ... >>> if __name__ == "__main__": ... test_debugger_tensor() ...
- class mindinsight.debugger.Watchpoint(tensors, condition)[源代码]
用来检查指定张量是否满足指定检查条件的监测点。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
tensors (Iterable[DebuggerTensor]) - 要检查的张量。
condition (ConditionBase) - 应用于张量的检查条件。
- 支持平台:
Ascend
GPU
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> from mindinsight.debugger import TensorTooLargeCondition, Watchpoint >>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") >>> tensor_list = my_run.select_tensors( ... query_string="Conv", ... use_regex=True, ... iterations=[0], ... ranks=[0], ... slots=[0] ... ) >>> watchpoint = Watchpoint(tensors=tensor_list, ... condition=TensorTooLargeCondition(abs_mean_gt=0.0)) >>> tensor = list(watchpoint.tensors)[0] >>> print(tensor.node.name) Default/network-WithLossCell/_backbone-AlexNet/conv1-Conv2d/Cast-op7 >>> print(watchpoint.condition.name) TensorTooLarge
- property condition
获取应用于张量的检查条件。
返回:
ConditionBase,应用于张量的检查条件。
- property tensors
获取要检查的张量。
返回:
Iterable[DebuggerTensor]),要检查的张量。
- class mindinsight.debugger.WatchpointHit[源代码]
监测点命中情况。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
说明
此类不能由用户实例化。 这个类的实例是无法修改的。
- 支持平台:
Ascend
GPU
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> from mindinsight.debugger import TensorTooLargeCondition, Watchpoint >>> >>> def test_watch_point_hit(): ... my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") ... tensor_list = my_run.select_tensors( ... query_string="Conv", ... use_regex=True, ... iterations=[0], ... ranks=[0], ... slots=[0] ... ) ... watchpoint = Watchpoint(tensors=tensor_list, ... condition=TensorTooLargeCondition(abs_mean_gt=0.0)) ... # the check_watchpoints function start a new process needs to be called through the main entry ... hits = my_run.check_watchpoints(watchpoints=[watchpoint]) ... hit = list(hits)[0] ... # print(str(hit)) ... # the print result is as follows ... # Watchpoint TensorTooLarge triggered on tensor: ... # rank: 0 ... # graph_name: kernel_graph_0 ... # node_name: Default/network-WithLossCell/_backbone-AlexNet/conv1-Conv2d/Cast-op7 ... # slot: 0 ... # iteration: 0 ... # Threshold: {'abs_mean_gt': 0.0} ... # Hit detail: The setting for watchpoint is abs_mean_gt = 0.0. ... # The actual value of the tensor is abs_mean_gt = 0.007956420533235841. ... # print(hit.error_code) ... # the print result is as follows ... # 0 ... # print(hit.tensor) ... # the print result is as follows ... # rank: 0 ... # graph_name: kernel_graph_0 ... # node_name: Default/network-WithLossCell/_backbone-AlexNet/conv1-Conv2d/Cast-op7 ... # slot: 0 ... # iteration: 0 ... # print(hit.get_hit_detail()) ... # the print result is as follows ... # The setting for watchpoint is abs_mean_gt = 0.0. ... # The actual value of the tensor is abs_mean_gt = 0.007956420533235841. ... >>> if __name__ == "__main__": ... test_watch_point_hit() ...
- property error_code
获取错误码,当检查到监测点发生错误时。返回对应的错误码,0表示没有错误发生。
返回:
int,错误码。
- property error_msg
如果出现错误,获取检查监测点过程中的错误信息。
返回:
list[str],错误信息列表。
- get_hit_detail()[源代码]
获取被触发的检测条件对象,内含造成触发的张量的实际值情况。例如,命中监测点的监测条件为 TensorTooLargeCondition(max_gt=None) ,监测张量值的最大值是否大于0, get_hit_detail 返回该监测条件对象,且该对象中包含张量值的最大值。如果 error_code 不为0,则返回None。
返回:
Union[ConditionBase, None],对应的监测条件的监测值的实际值,如果 error_code 不为0,则返回None。
- property tensor
获取监测点命中的张量。
返回:
DebuggerTensor,监测点命中的张量。
- class mindinsight.debugger.TensorTooLargeCondition(abs_mean_gt=None, max_gt=None, min_gt=None, mean_gt=None)[源代码]
检查张量值过大的监测条件。至少应该指定其中一个参数。
当指定多个参数时,只要有一个参数满足检查条件,就会在检查后命中该监测点。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
abs_mean_gt (float,可选) - 张量绝对值的均值阈值。当实际值大于该阈值时,则满足该检查条件。
max_gt (float,可选) - 张量最大值的阈值。当实际值大于该阈值时,则满足该检查条件。
min_gt (float,可选) - 张量最小值的阈值。当实际值大于该阈值时,则满足该检查条件。
mean_gt (float,可选) - 张量均值的阈值。当实际值大于该阈值时,则满足该检查条件。
样例:
>>> from mindinsight.debugger import TensorTooLargeCondition >>> my_condition = TensorTooLargeCondition(abs_mean_gt=0.0) >>> print(my_condition.name) TensorTooLarge
- property param_names
返回参数名称的列表。
返回:
list[str],参数名称列表。
- class mindinsight.debugger.TensorTooSmallCondition(abs_mean_lt=None, max_lt=None, min_lt=None, mean_lt=None)[源代码]
检查张量值过小的监测条件。至少应该指定其中一个参数。
当指定多个参数时,只要有一个参数满足检查条件,就会在检查后命中该监测点。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
abs_mean_lt (float,可选) - 张量绝对值的均值阈值。当实际值小于该阈值时,则满足该检查条件。
max_lt (float,可选) - 张量最大值的阈值。当实际值小于该阈值时,则满足该检查条件。
min_lt (float,可选) - 张量最小值的阈值。当实际值小于该阈值时,则满足该检查条件。
mean_lt (float,可选) - 张量均值的阈值。当实际值小于该阈值时,则满足该检查条件。
样例:
>>> from mindinsight.debugger import TensorTooSmallCondition >>> my_condition = TensorTooSmallCondition(abs_mean_lt=0.2) >>> print(my_condition.name) TensorTooSmall
- property param_names
返回参数名称的列表。
返回:
list[str],参数名称。
- class mindinsight.debugger.TensorRangeCondition(range_start_inclusive=None, range_end_inclusive=None, range_percentage_lt=None, range_percentage_gt=None, max_min_lt=None, max_min_gt=None)[源代码]
检查张量值范围的监测条件。
设置阈值以检查张量值范围。有四个选项: range_percentage_lt 、 range_percentage_gt 、 max_min_lt和max_min_gt 。至少应指定四个选项之一。如果阈值设置为前两个选项之一,则必须设置 range_start_inclusive 和 range_end_inclusive 。当指定多个参数时,只要有一个参数满足检查条件,就会在检查后命中该监测点。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
range_start_inclusive (float,可选) - 指定区间范围的开始。
range_end_inclusive (float,可选) - 指定区间范围的结束。
range_percentage_lt (float,可选) - [range_start_inclusive, range_end_inclusive] 范围内张量百分比的阈值。当指定范围内张量的百分比小于该值时,将满足检查条件。
range_percentage_gt (float,可选) - [range_start_inclusive, range_end_inclusive] 范围内张量百分比的阈值。当指定范围内张量的百分比大于该值时,将满足检查条件。
max_min_lt (float,可选) - 张量的最大值和最小值之差的下限阈值。
max_min_gt (float,可选) - 张量的最大值和最小值之差的上限阈值。
样例:
>>> from mindinsight.debugger import TensorRangeCondition >>> my_condition = TensorRangeCondition(max_min_gt=0.05) >>> print(my_condition.name) TensorRange
- property param_names
返回参数名称的列表。
返回:
list[str],参数名称。
- class mindinsight.debugger.TensorOverflowCondition[源代码]
检查张量溢出的监测条件。
张量溢出的监测条件检查 Inf 和 NaN 张量。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
样例:
>>> from mindinsight.debugger import TensorOverflowCondition >>> my_condition = TensorOverflowCondition() >>> print(my_condition.name) TensorOverflow
- property param_dict
获取参数列表。
返回:
dict,检查条件的参数。
- property param_names
返回参数的名称列表。
返回:
list[str],参数名称列表。
- class mindinsight.debugger.OperatorOverflowCondition[源代码]
检查算子溢出的监测条件。
算子溢出监测点检查算子计算过程中是否发生溢出。仅支持昇腾AI处理器。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
样例:
>>> from mindinsight.debugger import OperatorOverflowCondition >>> my_condition = OperatorOverflowCondition() >>> print(my_condition.name) OperatorOverflow
- property param_dict
获取参数列表。
返回:
dict,检查条件的参数。
- property param_names
返回参数的名称列表。
返回:
list[str],参数名称列表。
- class mindinsight.debugger.TensorAllZeroCondition(zero_percentage_ge)[源代码]
检查张量值全为零的监测条件。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
zero_percentage_ge (float) - 检查零张量值的百分比是否大于此值的阈值。
样例:
>>> from mindinsight.debugger import TensorAllZeroCondition >>> my_condition = TensorAllZeroCondition(zero_percentage_ge=0.0) >>> print(my_condition.name) TensorAllZero
- property param_names
返回参数名称列表。
返回:
list[str],参数名称列表。
- class mindinsight.debugger.TensorUnchangedCondition(rtol=1e-05, atol=1e-08)[源代码]
检查张量值不变的监测条件。
检查先前和当前张量的allclose函数。只有当张量中的每个元素都满足公式 \(|element\_in\_current\_tensor - element\_in\_previous\_tensor| \leq atol + rtol\times |previous\_tensor|\) 时,监测点才会被命中。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
rtol (float,可选) - 相对容差参数。默认值:1e-5。
atol (float,可选) - 绝对容差参数。默认值:1e-8。
样例:
>>> from mindinsight.debugger import TensorUnchangedCondition >>> my_condition = TensorUnchangedCondition(rtol=1000.0) >>> print(my_condition.name) TensorUnchanged
- property param_names
返回参数名称列表。
返回:
list[str],参数名称列表。
- class mindinsight.debugger.TensorChangeBelowThresholdCondition(abs_mean_update_ratio_lt, epsilon=1e-09)[源代码]
检查张量值变化率低于给定阈值的监测条件。
当张量变化满足公式 \(\frac {abs\_mean(current\_tensor - previous\_tensor)} {abs\_mean(previous\_tensor)} + epsilon < mean\_update\_ratio\_lt\) 时,监测点被命中。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
abs_mean_update_ratio_lt (float) - 平均变化比例的阈值。如果平均更新率小于该值,则将触发监测点。
epsilon (float,可选) - Epsilon 值。默认值:1e-9。
样例:
>>> from mindinsight.debugger import TensorChangeBelowThresholdCondition >>> my_condition = TensorChangeBelowThresholdCondition(abs_mean_update_ratio_lt=2.0) >>> print(my_condition.name) TensorChangeBelowThreshold
- property param_names
返回参数名称列表。
返回:
list[str],参数名称列表。
- class mindinsight.debugger.TensorChangeAboveThresholdCondition(abs_mean_update_ratio_gt, epsilon=1e-09)[源代码]
检查张量值变化率超过给定阈值的监测条件。
当张量变化满足公式 \(\frac {abs\_mean(current\_tensor - previous\_tensor)} {abs\_mean(previous\_tensor)} + epsilon > mean\_update\_ratio\_lt\) 时,监测点被命中。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
参数:
abs_mean_update_ratio_gt (float) - 平均变化率的阈值,如果平均变化率大于此值,则将触发监测点。
epsilon (float,可选) - Epsilon 值。默认值:1e-9。
样例:
>>> from mindinsight.debugger import TensorChangeAboveThresholdCondition >>> my_condition = TensorChangeAboveThresholdCondition(abs_mean_update_ratio_gt=0.0) >>> print(my_condition.name) TensorChangeAboveThreshold
- property param_names
返回参数名称列表。
返回:
list[str],参数名称列表。
- class mindinsight.debugger.ConditionBase[源代码]
检查条件的基类。
警告
此类中的所有API均为实验版本,将来可能更改或者删除。
说明
如果为一个条件实例指定了多个检查参数,只要有一个参数满足检查条件,就会在检查后命中该监测点。
- 支持平台:
Ascend
GPU
样例:
>>> from mindinsight.debugger import DumpAnalyzer >>> from mindinsight.debugger import (TensorTooLargeCondition, ... Watchpoint) >>> >>> def test_condition_base(): ... my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data") ... tensors = my_run.select_tensors(query_string="Conv2D-op13") ... watchpoint = Watchpoint(tensors=tensors, ... condition=TensorTooLargeCondition(abs_mean_gt=0.0, max_gt=0.0)) ... hit = list(my_run.check_watchpoints(watchpoints=[watchpoint]))[0] ... # print(hit.get_hit_detail()) ... # the print result is as follows ... # The setting for watchpoint is abs_mean_gt = 0.0, max_gt = 0.0. ... # The actual value of the tensor is abs_mean_gt = 0.06592023578438996, max_gt = 0.449951171875. ... watchpoint = Watchpoint(tensors=tensors, ... condition=TensorTooLargeCondition(abs_mean_gt=0.0, max_gt=1.0)) ... # the check_watchpoints function start a new process needs to be called through the main entry ... hit = list(my_run.check_watchpoints(watchpoints=[watchpoint]))[0] ... # print(hit.get_hit_detail()) ... # the print result is as follows ... # The setting for watchpoint is abs_mean_gt = 0.0. ... # The actual value of the tensor is abs_mean_gt = 0.06592023578438996. ... >>> if __name__ == "__main__": ... test_condition_base() ...
- property condition_id
获取检查条件id的名称。
返回:
int, 检查条件的id。
- property name
获取检查条件的名称。
返回:
str, 检查条件的名称。
- property param_dict
获取检查条件的参数。
返回:
dict, 检查条件的参数。