2024-03-11 15:22:39 +08:00
|
|
|
|
# EmoLLM 微调数据生成教程
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
|
|
|
|
**一、目标与背景**
|
|
|
|
|
|
2024-03-11 15:22:39 +08:00
|
|
|
|
为了使我们的心理大模型有更好的表达效果,我们必须要有高质量的数据集。为了达到这一目标,我们决定利用四种强大的中文大模型:文心一言、通义千问、讯飞星火 和 智谱GLM 来生成对话数据。此外,我们还将增强数据集的认知深度,通过加入少量自我认知数据集来提高模型的泛化能力。
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
|
|
|
|
**二、数据集生成方法**
|
|
|
|
|
|
|
|
|
|
1. **模型选择与数据准备**
|
|
|
|
|
|
2024-03-11 15:22:39 +08:00
|
|
|
|
选择文心一言、通义千问、讯飞星火和智谱GLM这四种大语言模型,获取调用相应接口的API,并准备用于生成对话数据。
|
|
|
|
|
|
|
|
|
|
3. **单轮与多轮对话数据生成**
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
2024-01-26 22:43:38 +08:00
|
|
|
|
利用这四种模型,我们生成了10000条单轮和多轮对话数据。在这一过程中,我们确保了数据的多样性、复杂性和有效性。
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
2024-01-26 22:43:38 +08:00
|
|
|
|
因为心理活动往往是复杂的,为了保证数据的多样性。我们选择了16 * 28 共 `448`个场景进行数据集生成,具体场景名称请参考config.yml中的 `emotions_list 和 areas_of_life`两个参数的配置。
|
2024-03-11 15:22:39 +08:00
|
|
|
|
|
|
|
|
|
5. **自我认知数据集的加入**
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
2024-01-26 22:43:38 +08:00
|
|
|
|
为了增强模型的认知能力,我们特意加入了一部分自我认知数据集。这些数据集有助于模型更好地理解上下文,提高对话的自然度和连贯性。
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
|
|
|
|
**三、实践步骤**
|
|
|
|
|
|
|
|
|
|
1. **初始化**
|
2024-01-26 22:43:38 +08:00
|
|
|
|
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 安装所需的软件和库
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
2024-01-26 22:43:38 +08:00
|
|
|
|
```bash
|
|
|
|
|
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
|
|
|
|
|
```
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 准备输入数据和配置参数
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
2024-01-26 22:43:38 +08:00
|
|
|
|
可参见 `config.yml`均有注释
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
|
|
|
|
2. **模型选择与配置**
|
2024-01-26 22:43:38 +08:00
|
|
|
|
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 根据需求选择适合的模型
|
2024-01-26 22:43:38 +08:00
|
|
|
|
为了使大家都能够玩上大模型,我们选用InterLLM2-7B作为我们的基线模型(消费级显卡也可部署微调的哦)
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 对模型进行必要的配置和调整
|
2024-01-26 22:43:38 +08:00
|
|
|
|
根据我们的数据集以及配置策略,使用XTuner进行微调
|
|
|
|
|
|
2024-01-23 21:25:12 +08:00
|
|
|
|
3. **数据生成**
|
2024-01-26 22:43:38 +08:00
|
|
|
|
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 使用通义千问大模型进行数据生成
|
2024-01-26 22:43:38 +08:00
|
|
|
|
```bash
|
|
|
|
|
# 终端运行
|
|
|
|
|
bash run_qwen.bash
|
|
|
|
|
```
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 使用百度文心大模型进行数据生成
|
2024-01-26 22:43:38 +08:00
|
|
|
|
```bash
|
|
|
|
|
# 终端运行
|
|
|
|
|
python ernie_gen_data.py
|
|
|
|
|
```
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 使用智谱GLM大模型进行数据生成
|
2024-01-26 22:43:38 +08:00
|
|
|
|
```bash
|
|
|
|
|
# 终端运行
|
|
|
|
|
python zhipuai_gen_data.py
|
|
|
|
|
```
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 使用讯飞星火大模型进行数据生成
|
2024-01-26 22:43:38 +08:00
|
|
|
|
```bash
|
|
|
|
|
# 终端运行
|
|
|
|
|
python ./xinghuo/gen_data.py
|
|
|
|
|
```
|
|
|
|
|
|
2024-01-23 21:25:12 +08:00
|
|
|
|
4. **自我认知数据集的整合**
|
2024-01-26 22:43:38 +08:00
|
|
|
|
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 自我认知数据集需要按照格式手动生成,如下格式即可
|
2024-01-26 22:43:38 +08:00
|
|
|
|
```json
|
|
|
|
|
[
|
|
|
|
|
{
|
|
|
|
|
"conversation": [
|
|
|
|
|
{
|
|
|
|
|
"input": "请介绍一下你自己",
|
|
|
|
|
"output": "我是大佬的emo小助手,可以帮助你解决心理上的问题哦"
|
|
|
|
|
}
|
|
|
|
|
]
|
|
|
|
|
},
|
|
|
|
|
{
|
|
|
|
|
"conversation": [
|
|
|
|
|
{
|
|
|
|
|
"input": "请做一下自我介绍",
|
|
|
|
|
"output": "我是大佬的emo小助手,可以帮助你解决心理上的问题哦"
|
|
|
|
|
}
|
|
|
|
|
]
|
|
|
|
|
}
|
|
|
|
|
]
|
|
|
|
|
```
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
2024-03-11 15:22:39 +08:00
|
|
|
|
5. **数据集整合**
|
2024-01-23 21:25:12 +08:00
|
|
|
|
|
2024-01-26 22:43:38 +08:00
|
|
|
|
在进行数据集整合之前,我们要检查生成的数据是否存在格式错误,类型不符合等情况。我们需要check.py进行检查数据。最后再使用merge_json.py将所有的json整合为一个总的json文件。
|
2024-03-11 15:22:39 +08:00
|
|
|
|
|
|
|
|
|
7. **评估与优化**
|
2024-01-26 22:43:38 +08:00
|
|
|
|
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 使用适当的评估指标对生成的数据集进行评估
|
|
|
|
|
* 根据评估结果进行必要的优化和调整
|
2024-01-26 22:43:38 +08:00
|
|
|
|
|
2024-01-23 21:25:12 +08:00
|
|
|
|
7. **测试与部署**
|
2024-01-26 22:43:38 +08:00
|
|
|
|
|
2024-03-11 15:22:39 +08:00
|
|
|
|
* 使用独立测试集对训练好的模型进行评估
|
|
|
|
|
* 根据测试结果进行必要的调整和优化
|
|
|
|
|
* 将最终的模型部署到实际应用中
|