错误分析

查看源文件  

如前文所述,错误分析是指基于获取到的网络、框架各种信息(例如:错误信息、网络代码等信息)进行错误原因分析,推断错误的可能原因。

错误分析首先需要区分问题场景,确认是数据加载与处理问题还是网络构建与训练问题。通常通过报错信息的格式可判断是数据问题还是网络问题。在分布式并行场景下,需要确认是否是并行场景问题。此时,可通过单卡执行网络进行验证,如果不存在数据加载与处理、网络构建与训练等问题,即是并行场景问题。接下来将对不同场景下的错误分析方法进行说明。

数据加载与处理错误分析

数据处理过程出现报错时,报错信息如图1所示,在报错信息中包含C++侧报错信息。通常数据处理的C++侧算子与Python侧同名,可以通过报错信息,确定Python代码中哪个数据处理算子报错,找到报错代码位置。

图 1

如图所示,C++报错的位置在batch_op.cc。 batch算子将数据集中连续多条数据合并为一个批处理数据,这是batch算子的后端实现。由报错描述可知,输入数据不满足batch算子的参数要求:合并的数据具有相同的shape,同时可以看到不同shape的大小。

数据加载与处理可以分三个阶段,包括数据准备、数据加载、数据增强。常见的报错如下表所示:

常见错误类型

错误说明

案例分析

数据准备错误

数据集本身问题,包括数据集路径问题以及MindRecord 文件问题

数据准备错误案例

数据加载错误

数据加载阶段的资源配置错误、自定义加载方法错误以及迭代器使用错误等

数据加载错误案例

数据增强错误

数据格式不匹配、数据尺寸不匹配、资源占用问题、多线程卡死

数据增强错误案例

网络构建与训练错误分析

网络构建与训练过程,按执行模式可以分为动态图模式和静态图模式,按执行阶段可以为编译阶段和执行阶段。不同模式下,不同执行阶段,错误分析的方法不同。

网络构建与训练过程的常见的报错类型如下表所示:

常见错误类型

错误说明

案例分析

context配置问题

系统进行上下文配置时的错误

context配置问题分析

语法错误

包括Python语法错误和MindSpore静态图语法错误,例如控制流语法不支持、Tensor切片错误等

语法错误分析

算子编译错误

包括算子参数值/类型/shape不满足要求、算子功能限制等

算子编译错误分析

算子执行错误

包括输入数据异常、算子实现错误、功能限制、资源限制等

算子执行错误分析

资源不足

包括设备内存不足、函数调用栈超限、流资源超限等

资源不足分析

  • 动态图模式错误分析

    动态图模式下,程序按照代码的编写顺序逐行执行,执行结果能够及时返回。 动态图编译报错的报错信息如图2所示,报错内容是Python前端的报错描述:函数参数个数与要求不符。通过Python调用栈,可以找到用户报错代码的位置:c = self.mul(b, self.func(a,a,b))

    通常情况下,报错信息中可能包含有WARNING日志,进行错误分析时优先分析Traceback后面的报错内容。

    图 2

    动态图模式下,网络构建与训练常见的错误问题主要是环境配置问题、Python语法问题、算子使用问题等。一般分析方法如下:

    • 根据报错描述内容,确认报错的对象,比如对应的算子API名称;

    • 根据Python调用栈信息,找到报错的代码行位置;

    • 分析报错位置的代码输入数据和计算逻辑,结合MindSpore API文档中对应的报错对象的说明和规格限制,分析出现报错问题的原因。

  • 静态图模式错误分析

    静态图模式下,MindSpore首先将网络结构编译成计算图,然后再执行图中涉及的计算操作。因此,静态图模式下的报错问题包括计算图编译报错问题和计算图执行报错问题。计算图编译报错的报错信息如图3所示,发生报错时自动保存analyze_failed.dat文件,帮助分析报错代码的位置。

    图 3

    静态图模式错误分析的一般方法是:

    根据报错描述内容,确认计算图报错的类型,即是计算图编译报错问题还是计算图执行报错问题:

    • 如果是计算图编译报错,根据报错描述和发生报错时自动保存的analyze_failed.dat文件,分析计算图推导失败的原因和位置;

    • 如果是计算图执行报错,可能是资源不足导致的执行报错,也可能是算子的执行报错,需要根据报错信息进行区分。如果是算子执行报错,首先确认是哪个算子,然后使用Dump功能保存算子的输入数据,通过输入数据分析算子报错的原因;

    分析计算图推导失败的原因可以参考analyze_failed.dat分析方法

    使用Dump保存算子输入数据可以参考Dump功能调试

分布式并行错误分析

MindSpore提供分布式并行训练功能,支持多种并行模式。分布式并行常见问题和可能原因如下:

常见错误类型

错误说明

策略配置错误

算子本身的逻辑导致的策略检查报错

常数策略配置错误

未配置策略时策略检查报错

并行脚本错误

包括脚本启动方式错误、并行配置与启动任务不匹配

  • 策略配置错误

    当用户通过 context.set_autoparallel_context(parallel_mode="semi_auto_parallel")使能自动并行之后,大概率会遇到一些策略检查的报错。这些策略检查来自于特定算子的切分限制。以下举三个例子来说明如何针对这三种错误进行分析。

    • 算子本身的逻辑导致的策略检查报错

      报错信息:

      [ERROR]Check StridedSliceInfo1414: When there is a mask, the input is not supported to be split
      

      可能的错误代码如下,网络的输入是一个[2, 4]的Tensor。网络中是一个slice操作,取输入Tensor中第0维度的前一半。等价的操作类似于numpy中的x[:1, :]其中x就是我们的输入Tensor。在网络中,我们给stridedslice算子配置了(2,1)的策略。表示在第0维度进行了切分。

      tensor = Tensor(ones((2, 4)))
      stridedslice = ops.StridedSlice((0, 0),(1, 4), (1, 1))
      
      class MyStridedSlice(nn.Cell):
      def __init__(self):
          super(MyStridedSlice, self).__init__()
          self.slice = stridedslice.shard(((2,1),))
      
      def construct(self, x):
          # x is a two-dimensional tensor
          return self.slice(x)
      

      错误原因:

      这段代码在第0维度进行了取切片操作。但是配置的策略(2,1)表示分别对输入Tensor的第0维度和第1维度进行取切片操作。根据目前MindSpore API文档中对算子切分的说明,

      仅支持值为全0的mask;需要切分的维度必须全部提取;输入在strides不为1对应的维度不支持切分

      被切分的维度不允许进行取切片的操作,因此需要修改策略如下:

      将第0维度的策略从2改成了1。表示第0维度将会被切分成1份,也就是表明不会切分,因此策略满足算子的限制,策略检查成功。

      class MyStridedSlice(nn.Cell):
      def __init__(self):
          super(MyStridedSlice, self).__init__()
          self.slice = stridedslice.shard(((1,1),))
      
      def construct(self, x):
          # x is a two-dimensional tensor
          return self.slice(x)
      
    • 常数策略配置错误

      错误信息:

      [ERROR] The strategy is ..., strategy len:. is not equal to inputs len:., index:
      

      可能的错误代码:

      class MySub(nn.Cell):
      def __init__(self):
          super(MySub, self).__init__()
          self.sub = ops.Sub().shard(((1,1), (1,)))
      def construct(self, x):
          # x is a two-dimensional tensor
          return self.sub(x, 1)
      

      有很多算子的输入可以是常量,比如加减乘除的运算、concat/gather等算子的axis,对于此类输入有常量scalar的运算,配置算子策略时需注意,不要为这些常量配置策略。如果按照如上方式为减法运算配置策略,对于常量1配置了策略(1,)则会报错。 意思是输入策略的index=1处也就是(1,)这个策略的长度是1,不等于对应的输入的长度是0,因为此时的输入是一个常数标量。

      修改后代码:

      正确的方式是为常量配置为空策略,或者直接不为其配置(建议此种方式)。

      self.sub = ops.Sub().shard(((1,1),()))
      
      self.sub = ops.Sub().shard(((1,1),))
      
    • 未配置策略时策略检查报错

      [ERROR]The strategy is ((8, 1)), shape 4 can not be divisible by strategy value 8
      

      可能的错误代码:

      class MySub(nn.Cell):
      def __init__(self):
          super(MySub, self).__init__()
          self.sub = ops.Sub()
      def construct(self, x):
          # x is a two-dimensional tensor
          return self.sub(x, 1)
      

      这段代码在8卡环境下以半自动并行模式运行,因为没有对示例中Sub算子配置策略,Sub算子的默认策略为数据并行。假设输入的x是大小为[2, 4]的矩阵。那么在开始编译之后,就会报错说最后导致输入的维度不够切分而报错。因此这种情况下,我们需要修改策略如下(切分度要小于输入Tensor的维度)。

      class MySub(nn.Cell):
      def __init__(self):
          super(MySub, self).__init__()
          self.sub = ops.Sub().shard(((2, 1), ()))
      def construct(self, x):
          # x is a two-dimensional tensor
          return self.sub(x, 1)
      

      其中,切分策略(2, 1)表示对第一个输入Tensor的第0维切分2份,第1维切分成1份即不切分。由于ops.Sub第二个输入是一个标量无法切分,所以设置切分策略维空()。

  • 并行脚本错误

    使用8卡Ascend设备进行训练时,利用bash脚本进行启动任务,正常情况下的脚本如下所示:

    #!/bin/bash
    set -e
    EXEC_PATH=$(pwd)
    export RANK_SIZE=8
    export RANK_TABLE_FILE=${EXEC_PATH}/rank_table_8pcs.json
    
    for((i=0;i<RANK_SIZE;i++))
    do
        rm -rf device$i
        mkdir device$i
        cp ./train.py ./device$i
        cd ./device$i
        export DEVICE_ID=$i
        export RANK_ID=$i
        echo "start training for device $i"
        env > env$i.log
        python ./train.py > train.log$i 2>&1 &
        cd ../
    done
    echo "The program launch succeed, the log is under device0/train.log0."
    

    通常容易出现的错误的场景有:

    1)使用for循环启动的训练任务数RANK_SIZE与配置文件rank_table_8pcs.json中配置的设备数不匹配,引起报错。

    2)执行训练脚本的命令没有使用异步执行的方式:python ./train.py > train.log$i 2>&1,造成不同的训练任务拉起的时间不一致,一起报错。正确的方式是在执行命令后加 & 操作符,表示将命令放在子shell中异步执行,由此实现多个任务同步启动。

    并行场景经常遇到Distribute Task Failed问题, 此时需要分析报错问题时出现在计算图编译阶段,还是在打印训练loss的执行阶段,这个可以缩小问题的范围。

    参考实例:

    MindSpore 分布式并行问题 - Distribute Task Failed