分布式权重切分与合并
概述
在当前的分布式训练和推理环境中,当预训练权重与分布式策略不匹配时,需要对预训练权重进行转换,以适应相应的分布式策略。为满足不同场景下的权重转换需求,MindFormers提供了一套权重转换工具。该工具支持单卡权重切分为多卡权重、多卡权重之间的转换、多卡权重合并为单卡权重。用户可根据具体需求选择自动转换或离线转换,帮助模型在不同分布式场景之间快速切换。
此外,MindFormers还支持LoRA权重的合并,方便用户部署使用LoRA微调后的模型。
自动转换
模型加载权重时,自动转换功能可以自动检测权重与当前模型分布式切分策略之间的匹配情况,如果不匹配,自动进行权重转换,无需用户手动干预。
参数说明
自动权重转换相关yaml
文件参数说明如下:
参数名称 |
说明 |
---|---|
load_checkpoint |
预加载权重的绝对路径或文件夹路径。 |
src_strategy |
预加载权重对应的分布式策略文件路径。 |
auto_trans_ckpt |
权重自动转换开关,为True开启,默认False。 |
transform_process_num |
权重自动转换使用的进程数,默认为1。 |
transform_by_rank |
是否使用mindspore.transform_checkpoint_by_rank接口做权重转换。 |
不同场景下yaml配置说明
单卡权重切分为多卡权重
# load_checkpoint: 设置为预训练权重文件路径
load_checkpoint: "/worker/llama3_8b/llama3_8b.ckpt"
# auto_trans_ckpt: 开启自动转换
auto_trans_ckpt: True
多卡权重之间的转换
# load_checkpoint: 设置为多卡权重文件夹路径
load_checkpoint: "/worker/checkpoint/llama3-8b-2layer-dp2mp2pp2"
# src_strategy_path_or_dir: 设置为分布式策略文件路径
src_strategy_path_or_dir: "/worker/checkpoint/llama3-8b-2layer-dp2mp2pp2/strategy/merged_ckpt_strategy.ckpt"
# auto_trans_ckpt: 开启自动转换
auto_trans_ckpt: True
多卡权重合并为单卡权重
# load_checkpoint: 设置为多卡权重文件夹路径
load_checkpoint: "/worker/checkpoint/llama3-8b-2layer-dp1mp2pp2"
# src_strategy_path_or_dir: 设置为分布式策略文件路径
src_strategy_path_or_dir: "/worker/checkpoint/llama3-8b-2layer-dp1mp2pp2/strategy/merged_ckpt_strategy.ckpt"
# auto_trans_ckpt: 开启自动转换
auto_trans_ckpt: True
# use_parallel: 设置为False
use_parallel: False
开启多进程转换(可选)
# transform_process_num: 设置参与转换的进程数量
transform_process_num: 2
注意事项
多进程转换:配置
transform_process_num
参数以开启多进程转换,但需注意内存占用。如果发生内存溢出,建议降低进程数量。自动权重转换:开启自动转换后,系统将删除
output
目录下的旧strategy
和transformed_checkpoint
文件夹,并保存当前任务的输出结果。建议在转换任务结束后,将strategy
和transformed_checkpoint
文件夹移动到自定义目录,以避免后续操作中被误删。分布式策略文件保存:分布式策略文件将保存在
output/strategy
文件夹下。如果开启了流水线并行,系统会自动合并所有的ckpt_strategy_rank_x.ckpt
文件,生成merged_ckpt_strategy.ckpt
。如果未开启流水线并行,则不会进行合并操作。
离线转换
离线转换功能旨在满足用户手动转换权重的需求。通过离线转换,用户可以在独立的环境中进行模型权重的转换操作。离线转换支持多种权重转换场景,包括单卡权重切分为多卡权重、多卡权重之间的转换、多卡权重合并为单卡权重。
用户在使用离线转换时,可以根据具体需求手动配置转换参数,确保转换过程灵活且可控,尤其适用于在严格控制的计算环境中进行模型部署和优化的场景。
参数说明
离线权重转换相关yaml
参数说明如下:
参数名称 |
说明 |
---|---|
src_checkpoint |
源权重的绝对路径或文件夹路径。 |
src_strategy |
源权重对应的分布式策略文件路径。 |
dst_checkpoint |
保存目标权重的文件夹路径。 |
dst_strategy |
目标权重对应的分布式策略文件路径。 |
prefix |
目标权重保存的前缀名,权重保存为”{prefix}rank_x.ckpt”,默认”checkpoint_”。 |
world_size |
目标权重的切片总数,一般等于dp * mp * pp。 |
process_num |
离线权重转换使用的进程数,默认为1。 |
离线转换配置说明
单进程转换
使用mindformers/tools/ckpt_transform/transform_checkpoint.py对载入权重进行单进程转换。
运行命令:
python transform_checkpoint.py \
--src_checkpoint=/worker/checkpoint/llama3-8b-2layer/rank_0/llama3_8b.ckpt \
--dst_checkpoint=/worker/transform_ckpt/llama3_8b_1to8/ \
--dst_strategy=/worker/mindformers/output/strategy/
注意事项:
如果离线转换过程中没有目标策略文件,可以通过设置only_save_strategy: True
来生成策略文件。运行一次任务即可获取该策略文件。
多进程转换
使用mindformers/tools/ckpt_transform/transform_checkpoint.sh对载入权重进行多进程转换。
运行命令:
bash transform_checkpoint.sh \
/worker/checkpoint/llam3-8b-2layer/rank_0/llama3_8b.ckpt \
None \
/worker/transform_ckpt/llama3_8b_1to8/ \
/worker/mindformers/output/strategy/ \
8 2
注意事项:
使用transform_checkpoint.sh脚本时,参数
8
表示目标设备数,参数2
表示使用2个进程进行转换。同样,如果没有目标策略文件,可以通过设置
only_save_strategy: True
来生成策略文件。
参数配置示例
策略文件保存:
only_save_strategy: True
数据集配置:
train_dataset: &train_dataset data_loader: type: MindDataset dataset_dir: "/worker/dataset/wiki103/" shuffle: True
8卡分布式策略配置:
parallel_config: data_parallel: 2 model_parallel: 2 pipeline_stage: 2 micro_batch_num: 2
模型配置:
model: model_config: seq_length: 512 num_layers: 2
特殊场景
物理机多机多卡训练
大规模模型通常需要通过多台服务器组成的集群进行训练。在这种多机多卡的场景下,如果服务器之间存在共享盘,则可以使用自动转换功能,否则只能使用离线转换。下面以两台服务器、16卡训练为例进行说明。
场景一:服务器之间有共享盘
在服务器之间有共享盘的场景下,可以使用 MindFormers 的自动权重转换功能在多机多卡训练之前自动进行权重转换。假设 /data
为服务器的共享盘,且 MindFormers 的工程代码位于 /data/mindformers
路径下。
单进程转换
在单进程转换模式下,只需在配置文件中配置预训练权重的路径并开启自动权重转换即可。
参数配置:
# 配置预训练权重路径,填写权重文件的绝对路径 load_checkpoint: "/worker/checkpoint/llama3-8b/rank_0/llama3_8b.ckpt" # 设置 auto_trans_ckpt 为 True 开启自动权重转换 auto_trans_ckpt: True # 配置数据集路径 train_dataset: &train_dataset data_loader: type: MindDataset dataset_dir: "/worker/dataset/wiki103/" shuffle: True # 配置16卡分布式策略(仅供参考) parallel_config: data_parallel: 2 model_parallel: 4 pipeline_stage: 2 micro_batch_num: 2 vocab_emb_dp: True gradient_aggregation_group: 4 micro_batch_interleave_num: 1
多进程转换(可选)
若需要加速权重转换过程,可以选择多进程转换模式,通过配置
transform_process_num
参数实现。参数配置:
# 使用2个进程进行转换 transform_process_num: 2
启动任务:
使用mindformers/scripts/msrun_launcher.sh进行任务启动。
# 第一台服务器(主节点) bash scripts/msrun_launcher.sh "run_mindformer.py \ --config {CONFIG_PATH} \ --run_mode train" \ 16 8 ${ip} ${port} 0 output/msrun_log False 300 # 第二台服务器(子节点) bash scripts/msrun_launcher.sh "run_mindformer.py \ --config {CONFIG_PATH} \ --run_mode train" \ 16 8 ${ip} ${port} 1 output/msrun_log False 300
场景二:服务器之间无共享盘
在服务器之间无共享盘的情况下,需要使用离线权重转换工具进行权重转换。以下步骤描述了如何进行离线权重转换,并启动多机多卡训练任务。
获取分布式策略文件
在进行离线权重转换前,首先需要获取各节点的分布式策略文件。
参数配置:
# 设置 only_save_strategy 为 True 以获取分布式策略文件 only_save_strategy: True # 配置数据集路径 train_dataset: &train_dataset data_loader: type: MindDataset dataset_dir: "/worker/dataset/wikitext_2048/" shuffle: True # 配置16卡分布式策略(仅供参考) parallel_config: data_parallel: 2 model_parallel: 4 pipeline_stage: 2 micro_batch_num: 2 vocab_emb_dp: True gradient_aggregation_group: 4 micro_batch_interleave_num: 1
各节点的策略文件将分别保存在各自的
output/strategy
目录中。例如,节点0将保存ckpt_strategy_rank_0-7.ckpt
文件,节点1将保存ckpt_strategy_rank_8-15.ckpt
文件。随后,需将所有节点的策略文件集中到同一台服务器上,以便进行后续操作。离线权重转换
在保存有所有策略文件的服务器上,使用mindformers/tools/ckpt_transform/transform_checkpoint.py进行离线权重转换。
单进程转换:
python mindformers/tools/ckpt_transform/transform_checkpoint.py \ --src_checkpoint=/worker/checkpoint/llama3-8b/rank_0/llama_7b.ckpt \ --dst_checkpoint=./output/llama3_8b_dp2mp4pp2 \ --dst_strategy=./output/strategy
多进程转换(可选):
# 使用2个进程进行转换 bash mindformers/tools/ckpt_transform/transform_checkpoint.sh \ /worker/checkpoint/llama3-8b/rank_0/llama_7b.ckpt \ None \ ./output/llama3_8b_dp2mp4pp2 \ ./output/strategy \ 16 2
复制权重到其他节点
将转换得到的分布式权重分别复制到各自节点。0节点只需要
rank_0
到rank_7
的切片权重,1节点只需要rank_8
到rank_15
的切片权重。参数配置
# 配置预训练权重路径,填写分布式权重文件夹路径 model_dir load_checkpoint: "/worker/checkpoint/llama3_8b_dp2mp4pp2" # 将 only_save_strategy 改为 False only_save_strategy: False
ModelArts 训练
在 ModelArts 环境中进行训练与物理机上的多机多卡训练类似,同样支持开启权重自动转换。用户可以通过在训练作业的超参数中配置auto_trans_ckpt=True
来启用自动权重转换,并通过设置transform_process_num > 1
来开启多进程转换。
注意:如果 ModelArts 资源池中的服务器节点NPU卡数不是8,则需要额外配置npu_num_per_node=节点NPU卡数
。例如,如果每个节点配有16个NPU,则应设置npu_num_per_node=16
。
LoRA权重合并
概述
LoRA(Low-Rank Adaptation)的基本原理是对原始模型的参数进行低秩重参数化。合并LoRA权重的核心过程是将 LoRA 分支的参数进行计算,并叠加到对应的模型参数中,使最终得到的权重文件的参数列表与原始模型一致,不包含额外的LoRA参数。这一操作不会对推理结果产生任何影响,因此合并后的模型在推理时依然能够保持与原始模型一致的性能。 有关 LoRA 的详细原理和实现,请参阅以下资源:
使用说明
使用MindFormers提供的LoRA权重合并脚本,按照如下方式进行LoRA权重合并。
python mindformers/tools/transform_ckpt_lora.py \
--src_ckpt_strategy src_strategy_path_or_dir \
--src_ckpt_path_or_dir src_ckpt_path_or_dir \
--dst_ckpt_dir dst_ckpt_dir \
--prefix "checkpoint_" \
--lora_scaling lora_alpha/lora_rank
参数说明
src_ckpt_strategy:源权重对应的分布式策略文件路径,通常在启动训练任务后默认保存在
output/strategy/
目录下。如果源权重为完整权重,则无需填写此参数;如果为分布式权重,需根据以下情况填写:源权重开启了流水线并行:权重转换基于合并的策略文件,填写分布式策略文件夹路径。脚本会自动将文件夹内的所有
ckpt_strategy_rank_x.ckpt
文件合并,并在文件夹下生成merged_ckpt_strategy.ckpt
。如果已经存在merged_ckpt_strategy.ckpt
,可以直接填写该文件的路径。源权重未开启流水线并行:权重转换可基于任一策略文件,填写任意一个
ckpt_strategy_rank_x.ckpt
文件的路径即可。
注意:如果策略文件夹下已存在
merged_ckpt_strategy.ckpt
且仍传入文件夹路径,脚本会首先删除旧的merged_ckpt_strategy.ckpt
,再合并生成新的merged_ckpt_strategy.ckpt
以用于权重转换。因此,请确保该文件夹具有足够的写入权限,否则操作将报错。src_ckpt_path_or_dir:源权重的路径。如果为分布式权重,请填写源权重所在文件夹的路径,源权重应按
model_dir/rank_x/xxx.ckpt
格式存放,并将文件夹路径填写为model_dir
。若源权重为完整权重,则填写完整权重的绝对路径。dst_ckpt_dir:目标权重的保存路径,需为自定义的空文件夹路径。目标权重将按
model_dir/rank_x/xxx.ckpt
格式保存。prefix:目标权重文件的命名前缀,默认值为 "checkpoint_",即目标权重将按照
model_dir/rank_x/checkpoint_x.ckpt
格式保存。lora_scaling:LoRA 权重的合并系数,默认为
lora_alpha/lora_rank
,这两个参数即为 LoRA 模型配置时的参数,需自行计算。
示例
场景一:包含 LoRA 参数的完整权重
如果合并前的权重是完整的权重文件,可以按照以下方式填写参数(直接输入完整权重的路径):
python mindformers/tools/transform_ckpt_lora.py \
--src_ckpt_path_or_dir .../xxx/xxx.ckpt \
--dst_ckpt_dir dst_ckpt_dir \
--prefix "checkpoint_" \
--lora_scaling lora_alpha/lora_rank
场景二:包含 LoRA 参数的分布式权重
如果合并前的权重是分布式的权重文件,可以按照以下方式填写参数(需输入分布式权重文件夹路径和分布式策略文件夹路径),最后得到的权重会自动合并为完整的权重文件:
python mindformers/tools/transform_ckpt_lora.py \
--src_ckpt_strategy .../xxx/mindformers/output/strategy/ \
--src_ckpt_path_or_dir .../xxx/model_dir \
--dst_ckpt_dir dst_ckpt_dir \
--prefix "checkpoint_" \
--lora_scaling lora_alpha/lora_rank