OliveSensorAPI/xtuner_config/pt/README.md

36 lines
1.2 KiB
Markdown
Raw Permalink Normal View History

2024-05-07 23:11:37 +08:00
# 增量预训练教程
# 增量预训练简介
增量预训练旨在提升模型在特定领域或任务的能力。
# 预训练流程
- Step1 处理数据
- Step2 配置config全量、Lora、Qlora
- Step3 启动训练单卡、多卡、是否使用deepspeed
- Step4 模型合成
- Step5 模型测试
- Step6 模型上传
# EmoLLM增量预训练教程
基于微调中的数据集[datasets](../../datasets)修改而来
- Step1 修改`ft2pt.py`中的文件路径
这里以[output2.json](../../datasets/processed/output2.json)为例,运行脚本生成[pt.json](../../datasets/pt/pt.json)
- Step2 [config](./internlm2_chat_1_8b_qlora_e3_pt.py)
注意本config采用了**变长注意力 (Variable Length Attention)**
需要安装flash_attn
`MAX_JOBS=4 pip install flash-attn --no-build-isolation`
- Step3 训练:
```
# On a single GPU
xtuner train internlm2_chat_1_8b_qlora_e3_pt.py --deepspeed deepspeed_zero2
# On multiple GPUs
(DIST) NPROC_PER_NODE=${GPU_NUM} xtuner train internlm2_chat_1_8b_qlora_e3_pt.py --deepspeed deepspeed_zero2
(SLURM) srun ${SRUN_ARGS} xtuner train internlm2_chat_1_8b_qlora_e3_pt.py --launcher slurm --deepspeed deepspeed_zero2
```
- 其余流程请参考[微调教程](../../xtuner_config/README.md)