1.8 KiB
1.8 KiB
EmoLLM_Scientist微调指南
数据
微调数据共包含3800段对话,借助LLM自动生成,后续进行人工校验。数据路径:'datasets\scientist.json'
基座
基座模型采用InternLM2-Chat-7B,模型介绍请见InternLM
训练方式
基于xtuner的微调,使用xtuner的train命令行工具,使用命令如下:
安装依赖
cd xtuner_config/
pip3 install -r requirements.txt
运行微调脚本
cd xtuner_config/
xtuner train internlm2_7b_chat_qlora_e3_scienctist.py --deepspeed deepspeed_zero2
模型转换
将得到的 PTH 模型转换为 HuggingFace 模型,生成 Adapter 文件夹
cd xtuner_config/
mkdir hf
export MKL_SERVICE_FORCE_INTEL=1
#这里假设训练了3个epoch
xtuner convert pth_to_hf internlm2_7b_chat_qlora_e3_scienctist.py ./work_dirs/internlm2_7b_chat_qlora_e3_scienctist/epoch_3.pth ./hf
将 HuggingFace adapter 合并到大语言模型
xtuner convert merge ./internlm2-chat-7b ./hf ./merged --max-shard-size 2GB
# xtuner convert merge \
# ${NAME_OR_PATH_TO_LLM} \
# ${NAME_OR_PATH_TO_ADAPTER} \
# ${SAVE_PATH} \
# --max-shard-size 2GB
测试
cd demo/
python cli_internlm2_scientist.py
模型上传
完成测试后可将模型上传到ModelScope和Openxlab平台
ModelScope
脚本:'scripts/upload_modelscope.py' Openxlab模型上传
Openxlab
其他
🎉🎉🎉🎉🎉