Release Notes

MindSpore Golden Stick 0.3.0-alpha Release Notes

主要特性和增强

  • [stable] SLB(Searching for Low-Bit Weights in Quantized Neural Networks)感知量化算法支持BatchNorm矫正能力。可以通过set_enable_bn_calibration接口来配置使能。对于存在BatchNorm层的网络,BatchNorm矫正能力减少SLB量化算法产生的网络准确率下降。(!150)

  • [stable] 验证了SimQAT(Simulated Quantization Aware Training)算法和SLB算法在ResNet网络,Imagenet2012数据集上的量化效果,详细效果参见MindSpore Models仓readme

  • [stable] 打通了SimQAT算法在Lite上的部署流程,并验证了LeNet网络的部署效果,详细效果参见MindSpore官网SimQAT量化算法推理部署效果

API变更

兼容性变更

  • SLB算法新增set_enable_bn_calibration接口,用于配置是否需要使能BatchNorm矫正能力。(!150)

  • 算法基类CompAlgo新增 convert 接口,用于在训练后将网络转换为推理网络,推理网络将被导出为MindIR进行推理部署,具体使用方法详见模型部署文档。(!176)

  • 算法基类CompAlgo新增 set_save_mindir 接口,配置在训练后自动导出MindIR,具体使用方法详见模型部署文档。(!168)

Bug修复

  • [STABLE] 重构SimQAT算法代码,解决量化过程中激活算子丢失、pre-trained参数丢失、伪量化算子冗余等问题。

贡献者

感谢以下人员作出的贡献:

liuzhicheng01, fuzhongqian, hangangqiang, yangruoqi713, kevinkunkun.

欢迎以任意形式对项目提供贡献!