Release Notes

查看源文件

MindSpore 2.3.0 Release Notes

主要特性及增强

AutoParallel

  • [STABLE] 扩展函数式并行能力,mindspore.shard新增支持图模式,图模式下以nn.Cell/function为单位设置输入与权重的并行切分策略,未设置的算子将通过"sharding_propagation"自动配置并行策略;增加支持手动重排布的mindspore.reshard接口,通过mindspore.Layout对张量设置精准切分策略。

  • [STABLE] 新增Callback接口mindspore.train.FlopsUtilizationCollector统计模型算力利用率信息MFU和硬件算力利用率信息HFU 。

  • [STABLE] 新增函数式通信接口mindspore.communication.comm_func

  • [BETA] O0和O1模式下,优化interleaved pipeline的内存占用。

  • [BETA] 自动并行模式下支持多机场景自动流水线策略生成(暂不支持单机场景自动流水线策略生成),需要将 parallel_mode 设置成自动并行 auto_parallel 并将 search_mode 设置成双递归算法 recursive_programming

PyNative

  • [STABLE] 优化动态图的基础数据结构,提升算子API性能。

  • [STABLE] Tensor支持register_hook功能,以便用户打印或者修改Tensor对应的梯度。

  • [STABLE] PyNative模式支持重计算功能,用户可以通过重计算接口降低网络的显存峰值。

FrontEnd

  • [STABLE] 优化Checkpoint保存、加载基础流程,提升性能20%。

  • [STABLE] 支持在保存、加载过程中对Checkpoint文件进行CRC校验,提升安全性。

Dataset

  • [STABLE] 为以下数据增强增加昇腾处理后端支持:Equalize、Rotate、AutoContrast、Posterize、AdjustSharpness、Invert、Solarize、ConvertColor、Erase。

  • [STABLE] 增加视频文件读取、解析功能支持,详见API:mindspore.dataset.vision.DecodeVideomindspore.dataset.vision.read_videomindspore.dataset.vision.read_video_timestamps

  • [STABLE] 支持在 mindspore.dataset.GeneratorDatasetmindspore.dataset.Dataset.mapmindspore.dataset.Dataset.batch 接口中指定 max_rowsize 参数为-1,此时数据多进程所使用的共享内存将随数据大小动态分配并高效运行,无需手动调参。

Inference

  • [STABLE] 新增LLaMa2、LLaMa3、Qwen1.5等14个大模型支持训推一体架构,实现脚本、分布式策略和运行时的统一,典型大模型训练到推理部署周期下降到天级,通过融合大算子降低推理时延,有效提升网络吞吐量。

PIJIT

  • [BETA] 支持Python 3.8和Python 3.10的字节码解析,扩大Python版本的支持范围。

  • [BETA] 支持Dynamic Shape、Symbolic Shape作为输入,使能动态输入场景。

  • [BETA] 使能单步构图能力,优化编译时间。

  • [BETA] 通过调整字节码支持了带有副作用的字节码被捕获(STORE_ATTR、STORE_GLOBAL、LIST_APPEND、dict.pop),使能自动混合精度,减少裂图,提升性能。

Profiler

  • [STABLE] 提供分级Profiler功能,通过profiler_level参数可控制按照不同级别进行性能数据采集。

  • [STABLE] Profiler analyse方法新增mode参数,可配置异步解析模式,性能数据解析与训练并行。

  • [STABLE] Profiler接口新增data_simplification参数,用户可控制性能数据解析完成后是否删除多余数据,节省硬盘空间。

  • [STABLE] Profiler接口增强内存分析功能,用户通过profile_memory参数可采集框架、CANN、硬件的内存申请、释放信息,并可通过MindStudio工具进行可视化分析。

  • [BETA] PyNative模式下Timeline整合host profiling信息,包括任务耗时、用户侧堆栈信息。

Dump

  • [STABLE] 增强同步和异步Dump功能,统计信息Dump新增L2Norm信息、新增statistic_category字段支持用户自定义需要保存的统计信息,提高Dump易用性。同步和异步Dump支持情况可参考Dump功能说明

  • [STABLE] 完善同步Dump功能,通过配置op_debug_mode字段使能溢出和异常Dump。

  • [STABLE] 增强同步Dump功能,通过配置stat_calc_mode字段可以使能device计算统计信息(默认在host计算),通过配置sample_mode字段可以进行采样Dump,提升Dump性能。

  • [STABLE] 增强异步Dump功能,支持保存complex64和complex128格式。

Runtime

  • [STABLE] 支持静态图多级编译,配置为mindspore.set_context(jit_config={"jit_level": "O0/O1/O2"}),默认值为空,框架根据产品类别自动选择优化级别,Altas训练产品为O2,其余产品均为O0。

  • [STABLE] 静态图O0/O1下支持通信计算多流并发执行。

  • [STABLE] 新增内存管理接口

  • [BETA] 内存池支持虚拟内存碎片整理,在静态图O0/O1下默认使能虚拟内存。

Ascend

  • [STABLE] 提供昇腾平台上算子内存越界访问检测开关,用户可以通过设置 mindspore.set_context(ascend_config={"op_debug_option": "oom"})来检测昇腾平台上算子内部内存越界问题。

  • [BETA] 环境变量MS_SIMULATION_LEVEL在昇腾平台上新增支持图编译O0执行模式,并可支持编译性能和运行时内存分析。

  • [BETA] 昇腾平台支持通过AOT接入使用AscendC自定义算子

API变更

新增API

  • [STABLE] 新增mindspore.mintAPI,提供了大量的functional、nn、优化器接口,API用法及功能等与业界主流用法一致,方便用户参考使用。mint接口当前是实验性接口,在图编译模式为O0和PyNative模式下性能比ops更优。当前暂不支持图下沉模式及CPU、GPU后端,后续会逐步完善。

    mindspore.mint

    mindspore.mint.eye

    mindspore.mint.rand_like

    mindspore.mint.isfinite

    mindspore.mint.any

    mindspore.mint.ones

    mindspore.mint.rand

    mindspore.mint.log

    mindspore.mint.greater_equal

    mindspore.mint.ones_like

    mindspore.mint.gather

    mindspore.mint.logical_and

    mindspore.mint.all

    mindspore.mint.zeros

    mindspore.mint.permute

    mindspore.mint.logical_not

    mindspore.mint.mean

    mindspore.mint.zeros_like

    mindspore.mint.repeat_interleave

    mindspore.mint.logical_or

    mindspore.mint.prod

    mindspore.mint.arange

    mindspore.mint.abs

    mindspore.mint.mul

    mindspore.mint.sum

    mindspore.mint.broadcast_to

    mindspore.mint.add

    mindspore.mint.neg

    mindspore.mint.eq

    mindspore.mint.cat

    mindspore.mint.clamp

    mindspore.mint.negative

    mindspore.mint.ne

    mindspore.mint.index_select

    mindspore.mint.cumsum

    mindspore.mint.pow

    mindspore.mint.greater

    mindspore.mint.max

    mindspore.mint.atan2

    mindspore.mint.reciprocal

    mindspore.mint.gt

    mindspore.mint.min

    mindspore.mint.arctan2

    mindspore.mint.rsqrt

    mindspore.mint.isclose

    mindspore.mint.scatter_add

    mindspore.mint.ceil

    mindspore.mint.sigmoid

    mindspore.mint.le

    mindspore.mint.narrow

    mindspore.mint.unique

    mindspore.mint.sin

    mindspore.mint.less_equal

    mindspore.mint.nonzero

    mindspore.mint.div

    mindspore.mint.sqrt

    mindspore.mint.lt

    mindspore.mint.normal

    mindspore.mint.divide

    mindspore.mint.square

    mindspore.mint.maximum

    mindspore.mint.tile

    mindspore.mint.erf

    mindspore.mint.sub

    mindspore.mint.minimum

    mindspore.mint.topk

    mindspore.mint.erfinv

    mindspore.mint.tanh

    mindspore.mint.inverse

    mindspore.mint.sort

    mindspore.mint.exp

    mindspore.mint.bmm

    mindspore.mint.searchsorted

    mindspore.mint.stack

    mindspore.mint.floor

    mindspore.mint.matmul

    mindspore.mint.argmax

    mindspore.mint.where

    mindspore.mint.flip

    mindspore.mint.split

    mindspore.mint.cos

    mindspore.mint.less

    mindspore.mint.nn

    mindspore.mint.nn.Dropout

    mindspore.mint.nn.Unfold

    mindspore.mint.nn.Fold

    mindspore.mint.nn.Linear

    mindspore.mint.nn.BCEWithLogitsLoss

    mindspore.mint.nn.functional

    mindspore.mint.nn.functional.batch_norm

    mindspore.mint.nn.functional.group_norm

    mindspore.mint.nn.functional.fold

    mindspore.mint.nn.functional.layer_norm

    mindspore.mint.nn.functional.max_pool2d

    mindspore.mint.nn.functional.linear

    mindspore.mint.nn.functional.binary_cross_entropy

    mindspore.mint.nn.functional.unfold

    mindspore.mint.nn.functional.sigmoid

    mindspore.mint.nn.functional.one_hot

    mindspore.mint.nn.functional.tanh

    mindspore.mint.nn.functional.elu

    mindspore.mint.nn.functional.binary_cross_entropy_with_logits

    mindspore.mint.nn.functional.gelu

    mindspore.mint.nn.functional.dropout

    mindspore.mint.nn.functional.leaky_relu

    mindspore.mint.nn.functional.embedding

    mindspore.mint.nn.functional.silu

    mindspore.mint.nn.functional.grid_sample

    mindspore.mint.nn.functional.softplus

    mindspore.mint.nn.functional.relu

    mindspore.mint.nn.functional.softmax

    mindspore.mint.nn.functional.pad

    mindspore.mint.optim

    mindspore.mint.optim.AdamW

    mindspore.mint.linalg

    mindspore.mint.linalg.inv

非兼容性接口变更

  • 接口名称:性能数据采集接口 Profiler

    变更内容:解析生成的性能数据文件进行了精简,将在导出性能数据后删除FRAMEWORK目录数据以及其他多余数据,仅保留profiler的交付件以及PROF_XXX目录下的原始性能数据,以节省空间。通过将 data_simplification参数配置为 False可关闭精简模式,与历史版本生成的性能数据文件保持一致。

  • 接口名称:Dump功能配置文件中的 saved_data 字段为 "tensor"

    变更内容:Dump落盘的文件名发生变更,"/""_"代替,算子名称变为算子全局名称。

    原文件名 2.3文件名
    文件名格式:
    {op_type}.{op_name}.{task_id}.{stream_id}.
    {timestamp}.{input_output_index}.{slot}.{format}.npy
    
    示例: Conv2D.Conv2D-op12.0.0.1623124369613540. output.0.DefaultFormat.npy
    文件名格式:
    {op_type}.{op_name}.{task_id}.{stream_id}.
    {timestamp}.{input_output_index}.{slot}.{format}.npy
    
    示例: Conv2D.Default_network-WithLossCell__backbone-AlexNet_conv3 -Conv2d_Conv2D-op12.0.0.1623124369613540.output.0.DefaultFormat.npy
  • 接口名称:Dump功能配置文件中的 saved_data字段为 "statistic"

    变更内容:原默认保存 "max""min""avg""count""negative zero count""positive zero count""nan count""negative inf count""positive inf count""zero count"md5统计项,2.3变更为默认保存 "max""min""l2norm"统计项,可以通过配置 statistic_category自定义统计项。

贡献者

caifubi;candanzg;ccsszz;chaiyouheng;changzherui;chenfei_mindspore;chengbin;chengfeng27;Chong;dairenjie;DavidFFFan;DeshiChen;dingjinshan;douzhixing;emmmmtang;Erpim;fary86;fengyixing;fuhouyu;gaoyong10;GuoZhibin;guozhijian;halo;haozhang;hejianheng;Henry Shi;horcham;huandong1;huangbingjian;Jackson_Wong;jiangchenglin3;jiangshanfeng;jiangzhenguang;jiaorui;bantao;jiaxueyu;jijiarong;JuiceZ;jxl;kairui_kou;lanzhineng;LiangZhibo;lichen;limingqi107;linqingke;liubuyu;liujunzhu;liuluobin;liyan2022;liyejun;LLLRT;looop5;lujiale;luochao60;luoyang;lvxudong;machenggui;maning202007;Margaret_wangrui;master_2;mengyuanli;moran;Mrtutu;NaCN;nomindcarry;panzhihui;pengqi;qiuyufeng;qiuzhongya;Renyuan Zhang;shaoshengqi;Shawny;shen_haochen;shenhaojing;shenwei41;shij1anhan;shilishan;shiziyang;shunyuanhan;shuqian0;TAJh;tanghuikang;tan-wei-cheng;Thibaut;tianxiaodong;TronZhang;TuDouNi;VectorSL;wang_ziqi;wanghenchang;wangjie;weiyang;wudawei;wujiangming;wujueying;XianglongZeng;xiaotianci;xiaoxin_zhang;xiaoxiongzhu;xiaoyao;XinDu;xuxinglei;yangchen;yanghaoran;yanglong;yangruoqi713;yangzhenzhang;yangzishuo;Yanzhi_YI;yao_yf;yefeng;yide12;YijieChen;YingLai Lin;yuchaojie;YuJianfeng;zangqx;zhaiyukun;zhangminli;zhangqinghua;ZhangZGC;zhengxinQian;zhengzuohe;zhouyaqiang0;zhuguodong;zhupuxu;zichun_ye;zjun;zlq2020;ZPaC;zuochuanyong;zyli2020;阿琛;狄新凯;范吉斌;冯一航;胡彬;宦晓玲;黄勇;康伟;雷仪婧;李良灿;李林杰;刘崇鸣;刘力力;刘勇琪;刘子涵;吕浩宇;王禹程;熊攀;徐安越;徐永飞;俞涵;张王泽;张栩浩;郑裔;周莉莉;周先琪;朱家兴;邹文祥

欢迎以任何形式对项目提供贡献!

MindSpore 2.3.0-rc2 Release Notes

主要特性和增强

AutoParallel

  • [STABLE] Transpose/Sub/Add/Mul/Div/ReLU/Softmax/Sigmoid算子支持配置Layout。

  • [STABLE] 集合通信精度会影响网络收敛,在接口mindspore.set_auto_parallel_context提供配置项force_fp32_communication,设为True时可以强制将reduce类通信算子的通信类型转为float32。

  • [BETA] pipeline并行支持Interleave调度,优化micro batch大小受限场景下的模型性能。

  • [BETA] 优化pipeline并行场景下提高模型转换速度,支持单个stage单独转换。

PyNative

API变更

增加动态组网场景下各类超时时间环境变量配置:

  • MS_TOPO_TIMEOUT: 集群组网阶段超时时间,单位:秒。

  • MS_NODE_TIMEOUT:节点心跳超时时间,单位:秒。

  • MS_RECEIVE_MSG_TIMEOUT:节点接收消息超时时间,单位:秒。

新增环境变量 MS_ENABLE_LCCL,支持昇腾后端单机多卡场景下使用LCCL通信库。

问题修复

  • #I9CR96 修复在大规模集群下,动态组网启动方式的超时时间不足导致集群启动失败的问题。

  • #I94AQQ 修复ops.Addcdiv算子在图模式下输出shape有误问题。

贡献者

感谢以下人员做出的贡献:

bantao,caifubi,changzherui,chenfei_mindspore,chenweifeng,dairenjie,dingjinshan,fangzehua,fanyi20,fary86,GuoZhibin,hanhuifeng,haozhang,hedongdong,Henry Shi,huandong1,huangbingjian,huoxinyou,jiangchenglin3,jiangshanfeng,jiaorui,jiaxueyu,jxl,kairui_kou,lichen,limingqi107,liuluobin,LLLRT,looop5,luochao60,luojianing,maning202007,NaCN,niyuxin94520,nomindcarry,shiziyang,tanghuikang,TronZhang,TuDouNi,VectorSL,wang_ziqi,wanghenchang,wudawei,XianglongZeng,xiaoxiongzhu,xiaoyao,yanghaoran,Yanzhi_YI,yao_yf,yide12,YijieChen,YingLai Lin,yuchaojie,YuJianfeng,zangqx,zhanghanLeo,ZhangZGC,zhengzuohe,zhouyaqiang0,zichun_ye,zjun,ZPaC,zyli2020,冯一航,李林杰,刘力力,王禹程,俞涵,张栩浩,朱家兴,邹文祥

欢迎以任何形式对项目提供贡献!

MindSpore 2.3.0-rc1 Release Notes

主要特性及增强

DataSet

  • [STABLE] MindRecord模块增加完整性校验、加解密功能,以此保护用户数据的完整性与安全性。

  • [STABLE] MindRecord接口变更:废弃FileWriter.open_and_set_header接口,因为其功能已内置到FilterWriter类,若使用旧版本代码将报错,删除此调用即可;FileWriter增加写入数据类型校验,以确保Schema定义的数据类型与真实数据类型匹配;Mindrecord组件下所有类方法去除返回值,若处理出错以异常方式提示用户。

  • [STABLE] 为以下数据增强增加Ascend处理后端支持:ResizedCrop、HorizontalFlip、VerticalFlip、Perspective、Crop、Pad、GaussianBlur、Affine。

  • [STABLE] 优化了模型迁移场景中数据迁移部分的指南,提供更多与第三方库框架对比的例子。

  • [STABLE] 优化了TFRecordDataset在多数据列场景下解析效率,提升解析性能 20%。

PIJIT

  • [BETA] PIJit通过对Python字节码进行分析&调整、执行流进行图捕获&图优化,支持的Python代码做静态图方式执行,不支持的进行子图切分以动态图方式执行,自动地做到动静统一。用户可以通过@jit(mode="PIJit", jit_config={options:value})对函数进行装饰来开启PIJit。

Inference

  • [DEMO] 大模型推理升级训推一体架构,实现脚本、分布式策略和运行时的统一,典型大模型训练到推理部署周期下降到天级,通过融合大算子降低推理时延,有效提升网络吞吐量。

AutoParallel

  • [STABLE] 新增msrun启动方式,支持单指令拉起分布式任务。

  • [STABLE] 添加RankTable启动方式即将废弃的提示。

  • [STABLE] 图模式下消除冗余常量,提升编译性能和内存开销。

  • [STABLE] 子图场景优化器并行首个子图inline,使得流水并行下的一些计算和通信掩盖可以进行。

  • [STABLE] 通信信息导出,编译期间导出模型通信信息(通信域、通信量),输入给集群作为通信调度的依据。

  • [STABLE] 流水线并行推理优化,去除共享权重在stage间转发,提升执行性能;支持流水线并行推理结果自动广播,提升自回归推理易用性。

  • [STABLE] 算子级并行切分支持配置MatMul/Add/LayerNorm/GeLU/BiasAdd算子的切分时的设备排布与张量排布的映射关系。

  • [STABLE] 支持数据并行维度的梯度通信与反向计算互相掩盖功能。

  • [STABLE] 单卡模拟编译,用于模拟多卡分布式训练中某张卡的编译流程,辅助分析前后端各编译流程和内存占用。

  • [STABLE] ops.Tril算子支持切分,从而降低对单个device的内存与性能需求。

  • [BETA] 支持通信算子和计算算子融合,掩盖通信开销,提升网络性能。

  • [BETA] 故障恢复时,checkpoint加载与编译并行从而减少故障恢复时间。

Runtime

  • [BETA] 支持O0/O1/O2多级编译,提升静态图调试调优能力。

FrontEnd

  • [STABLE] 框架新增对bfloat16数据类型的支持,创建Tensor时可以指定dtype=mindspore.bfloat16。

  • [STABLE] 完善rewrite组件的语法支持能力,新增支持对类变量、函数、控制流等语法的解析。

  • [STABLE] 新增context配置项:debug_level,用户可以使用mindspore.set_context(debug_level=mindspore.DEBUG)来获取更多调试信息。

Profiler

  • [BETA] 动态启停profiling,用户可以根据训练情况实时采集profiling 数据,减少采集数据量。

  • [BETA] Profiling通信算子耗时矩阵,用户通过分析通信算子耗时矩阵,找出集群通信性能瓶颈。

  • [BETA] 提高昇腾环境解析Profiling数据的性能。

  • [BETA] 支持离线解析Profiling生成的数据,用户可以先采集数据,然后根据需要再解析数据。

  • [BETA] 支持采集片上内存、PCIe、l2_cache性能数据,丰富性能分析指标。

Dump

  • [BETA] Dump保存的统计信息记录MD5值,用户可以通过MD5值确定张量值的微小差异。

  • [BETA] Dump支持bfloat16数据类型,支撑用户定位bfloat16类型的算子精度问题。

PyNative

  • [STABLE] 重构动态图下单算子调用流程,优化前端算子下发粒度,提升动态图性能。

Ascend

  • [BETA] 支持用户设置CANN的options配置项,配置项分为global和session二类,用户可以通过mindspore.set_context(ascend_config={"ge_options": {"global": {"global_option": "option_value"}, "session": {"session_option": "option_value"}}})进行配置。

API变更

  • 新增 mindspore.hal接口,开放流、事件以及设备管理能力。

  • 新增 mindspore.multiprocessing 接口,提供了创建多进程的能力。

算子

  • [BETA] mindspore.ops.TopK当前支持第二个输入k为Int32类型的张量。

问题修复

  • [#I92H93] 修复了昇腾平台下使用Print算子打印字符串对象时,Print算子报错Launch kernel failed的问题。

  • [#I8S6LY] 修复了昇腾平台图模式动态shape流程下,变长输入算子(如 AddN、Concat)报错RuntimeError: Attribute dyn_input_sizes of Default/AddN-op1 is [const vector]{}, of which size is less than 0的问题。

  • [#I9ADZS] 修复了故障恢复训练场景中,由于dataset恢复效率低导致网络训练出现数据超时的问题。

贡献者

感谢以下人员做出的贡献:

AlanCheng511,AlanCheng712,bantao,Bingliang,BJ-WANG,Bokai Li,Brian-K,caifubi,cao1zhg,CaoWenbin,ccsszz,chaiyouheng,changzherui,chenfei_mindspore,chengbin,chengfeng27,chengxb7532,chenjianping,chenkang,chenweifeng,Chong,chuht,chujinjin,Cynthia叶,dairenjie,DavidFFFan,DeshiChen,douzhixing,emmmmtang,Erpim,fangzhou0329,fary86,fengxun,fengyixing,fuhouyu,gaoshuanglong,gaoyong10,GaoZhenlong,gengdongjie,gent1e,Greatpan,GTT,guoqi,guoxiaokang1,GuoZhibin,guozhijian,hangq,hanhuifeng,haozhang,hedongdong,hejianheng,Henry Shi,heyingjiao,HighCloud,Hongxing,huandong1,huangbingjian,HuangLe02,huangxinjing,huangziling,hujiahui8,huoxinyou,jiangchenglin3,jianghui58,jiangshanfeng,jiaorui,jiaxueyu,JichenZhao,jijiarong,jjfeing,JoeyLin,JuiceZ,jxl,kairui_kou,kate,KevinYi,kisnwang,lanzhineng,liangchenghui,LiangZhibo,lianliguang,lichen,ligan,lihao,limingqi107,ling,linqingke,liruyu,liubuyu,liuchao,liuchengji,liujunzhu,liuluobin,liutongtong9,liuzhuoran2333,liyan2022,liyejun,LLLRT,looop5,luochao60,luojianing,luoyang,LV,machenggui,maning202007,Margaret_wangrui,MaZhiming,mengyuanli,MooYeh,moran,Mrtutu,NaCN,nomindcarry,panshaowu,panzhihui,PingqiLi,qinzheng,qiuzhongya,Rice,shaojunsong,Shawny,shenwei41,shenyaxin,shunyuanhan,silver,Songyuanwei,tangdezhi_123,tanghuikang,tan-wei-cheng,TingWang,TronZhang,TuDouNi,VectorSL,WANG Cong,wang_ziqi,wanghenchang,wangpingan,wangshaocong,wangtongyu6,weiyang,WinXPQAQ,wtcheng,wudawei,wujiangming,wujueying,wuweikang,wwwbby,XianglongZeng,xiaosh,xiaotianci,xiaoxin_zhang,xiaoxiongzhu,xiaoyao,XinDu,xingzhongfan,yanghaoran,yangluhang,yangruoqi713,yangzhenzhang,yangzishuo,yanjiaming,Yanzhi_YI,yao_yf,yefeng,yeyunpeng2020,yide12,YijieChen,YingLai Lin,YingtongHu,youshu,yuchaojie,YuJianfeng,zangqx,zby,zhaiyukun,zhangdanyang,zhanghaibo,zhanghanLeo,zhangminli,zhangqinghua,zhangyanhui,zhangyifan,zhangyinxia,zhangyongxian,ZhangZGC,zhanzhan,zhaoting,zhengyafei,zhengzuohe,ZhihaoLi,zhouyaqiang0,zhuguodong,zhumingming,zhupuxu,zichun_ye,zjun,zlq2020,ZPaC,zuochuanyong,zyli2020,陈宇,代宇鑫,狄新凯,范吉斌,冯一航,胡彬,宦晓玲,黄勇,康伟,李良灿,李林杰,刘崇鸣,刘力力,刘勇琪,吕浩宇,没有窗户的小巷,王禹程,吴蕴溥,熊攀,徐安越,徐永飞,许哲纶,俞涵,张峻源,张树仁,张王泽,张栩浩,郑裔,周莉莉,周先琪,朱家兴,邹文祥

欢迎以任何形式对项目提供贡献!