de0674ccf7
* update rag/src/data_processing.py * Add files via upload allow user to load embedding & rerank models from cache * Add files via upload embedding_path = os.path.join(model_dir, 'embedding_model') rerank_path = os.path.join(model_dir, 'rerank_model') * 测试push dev 测试push dev * Add files via upload 两个母亲多轮对话数据集合并、清理和去重之后,得到 2439 条多轮对话数据(每条有6-8轮对话)。 * optimize deduplicate.py Add time print information save duplicate dataset as well remove print(content) * add base model qlora fintuning config file: internlm2_7b_base_qlora_e10_M_1e4_32_64.py * add full finetune code from internlm2 * other 2 configs for base model * update cli_internlm2.py three methods to load model 1. download model in openxlab 2. download model in modelscope 3. offline model * create upload_modelscope.py * add base model and update personal contributions * add README.md for Emollm_Scientist * Create README_internlm2_7b_base_qlora.md InternLM2 7B Base QLoRA 微调指南 * [DOC]EmoLLM_Scientist微调指南 * [DOC]EmoLLM_Scientist微调指南 * [DOC]EmoLLM_Scientist微调指南 * [DOC]EmoLLM_Scientist微调指南 * [DOC]EmoLLM_Scientist微调指南 * [DOC]EmoLLM_Scientist微调指南 * update * [DOC]README_scientist.md * delete config * format update * upload xlab * add README_Model_Uploading.md and images * modelscope model upload * Modify Recent Updates * update daddy-like Boy-Friend EmoLLM * update model uploading with openxlab * update model uploading with openxlab --------- Co-authored-by: zealot52099 <songyan5209@163.com> Co-authored-by: xzw <62385492+aJupyter@users.noreply.github.com> Co-authored-by: zealot52099 <67356208+zealot52099@users.noreply.github.com> Co-authored-by: Bryce Wang <90940753+brycewang2018@users.noreply.github.com> Co-authored-by: HongCheng <kwchenghong@gmail.com>
68 lines
3.4 KiB
Markdown
68 lines
3.4 KiB
Markdown
# EmoLLM数据集
|
||
|
||
* 数据集按用处分为两种类型:**General** 和 **Role-play**
|
||
* 数据按格式分为两种类型:**QA** 和 **Conversation**
|
||
* 数据汇总:General(**6个数据集**);Role-play(**3个数据集**)
|
||
|
||
## 数据集类型
|
||
|
||
* **General**:通用数据集,包含心理学知识、心理咨询技术等通用内容
|
||
* **Role-play**:角色扮演数据集,包含特定角色对话风格数据等内容
|
||
|
||
## 数据类型
|
||
|
||
* **QA**:问答对
|
||
* **Conversation**:多轮对话
|
||
|
||
## 数据集汇总
|
||
|
||
| Category | Dataset | Type | Total |
|
||
| :---------: | :-------------------: | :----------: | :-----: |
|
||
| *General* | data | Conversation | 5600+ |
|
||
| *General* | data_pro | Conversation | 36500+ |
|
||
| *General* | multi_turn_dataset_1 | Conversation | 36,000+ |
|
||
| *General* | multi_turn_dataset_2 | Conversation | 27,000+ |
|
||
| *General* | single_turn_dataset_1 | QA | 14000+ |
|
||
| *General* | single_turn_dataset_2 | QA | 18300+ |
|
||
| *Role-play* | aiwei | Conversation | 4000+ |
|
||
| *Role-play* | SoulStar | QA | 11200+ |
|
||
| *Role-play* | tiangou | Conversation | 3900+ |
|
||
| …… | …… | …… | …… |
|
||
|
||
## 数据集来源
|
||
|
||
### **General**
|
||
|
||
* 数据集 data 来自本项目
|
||
* 数据集 data_pro 来自本项目
|
||
* 数据集 multi_turn_dataset_1 来源 [Smile](https://github.com/qiuhuachuan/smile)
|
||
* 数据集 multi_turn_dataset_2 来源 [CPsyCounD](https://github.com/CAS-SIAT-XinHai/CPsyCoun)
|
||
* 数据集 single_turn_dataset_1 来自本项目
|
||
* 数据集 single_turn_dataset_2 来自本项目
|
||
|
||
### **Role-play**
|
||
|
||
* 数据集 aiwei 来自本项目
|
||
* 数据集 tiangou 来自本项目
|
||
* 数据集 SoulStar 来源 [SoulStar](https://github.com/Nobody-ML/SoulStar)
|
||
|
||
## 数据集去重
|
||
|
||
结合绝对匹配以及模糊匹配(Simhash)算法,对数据集进行去重以提升微调模型的效果。在确保数据集的高质量的同时,通过调整阈值减少因错误匹配而丢失重要数据的风险。
|
||
|
||
### **Simhash算法介绍**
|
||
|
||
Simhash(相似性哈希)是一种用于检测大量数据中相似或重复项的算法。它通过将文本转换为一组数值指纹来工作,这些指纹对相似的文本具有高度的相似性。Simhash算法对于处理文本数据特别有效,尤其是在处理大量数据时。
|
||
|
||
### **Simhash实现步骤**
|
||
|
||
*文本预处理:将文本数据转换为适合Simhash处理的格式。这可能包括分词、去除停用词、词干提取等。
|
||
*生成Simhash指纹:对预处理后的文本应用Simhash算法,生成一组数值指纹。每个指纹代表文本内容的一个哈希值。
|
||
*比较指纹:通过比较哈希值的相似性来识别重复或相似的记录。Simhash的特点是即使在文本有少量差异时,生成的哈希值也具有较高的相似性。
|
||
*确定阈值:设置一个相似性阈值,只有当两个指纹的相似度超过这个阈值时,才认为它们代表相似或重复的记录。
|
||
*处理相似记录:对于被标记为相似的记录,可以进一步人工审查或自动合并,以消除重复。
|
||
|
||
### deduplicate.py用法
|
||
|
||
`deduplicate.py` 用于将datasets下以模型命名的文件夹下(例如:'datasets/qwen').json数据进行去重,输出去重后的数据到 `datasets/qwen/dedup` 文件夹下。
|