OliveSensorAPI/docs/quick_start.md
2024-04-09 12:43:35 +08:00

3.3 KiB
Raw Blame History

1、部署环境

  • 操作系统Ubuntu 22.04.4 LTS
  • CPUIntel (R) Xeon (R) CPU E 5-265032G在线 GPU 服务器)
  • 显卡NVIDIA RTX 4060Ti 16GNVIDIA-SMI 535.104.05 Driver Version: 535.104.05 CUDA Version: 12.2
  • Python 3.11.5

2、默认部署步骤

  • 1、Clone 代码或者手动下载代码放置服务器:
git clone https://github.com/SmartFlowAI/EmoLLM.git
  • 2、安装 Python 依赖库:
# cd EmoLLM
# pip install -r requirements.txt
  • 3、安装 oss2 库用于自动下载模型requirements.txt 文件缺少该库)
# pip install oss2
  • 4、【重要】下载模型目录选择你想要使用的模型手动下载去 openxlabEmoLLM_Model 或者 Huggingface 等其他平台下载模型目录,将全部文件放在 EmoLLM/model 目录下。注意,这一步必须要有,否则自动下载会报错,打包下载时并不会下载 LFS如 pytorch_model-00001-of-00008.bin文件的完整文件只是一个引用而已。
  • 5、下载模型特指模型中的 pytorch_model-XXX.bin 文件,可通过手动或者自动方式下载模型。
  • 5.1、模型手动下载则去 openxlabEmoLLM_Model 或者其他平台下载模型,将全部文件放在 EmoLLM/model 目录下,然后修改 web_demo-aiwei.py 或者 web_internlm2.py 文件app. Py 调用哪一个就修改哪一个文件)注释掉开头的下面代码,防止脚本自动重新下载模型:
# download(model_repo='ajupyter/EmoLLM_aiwei',
#        output='model')
  • 5.2、模型自动下载,进入 EmoLLM 目录后有三个文件,分别是 app.py、web_demo-aiwei.py、web_internlm2.py。app.py 是调用后面两个脚本的。想要调用哪一个脚本就注释掉另外一个脚本。并运行如下
# python ./app.py
  • 注意:默认情况下 web_demo-aiwei.py 自动下载的是 openxlab 平台的 ajupyter/EmoLLM_aiwei 模型web_internlm2.py 下载的是 jujimeizuo/EmoLLM_Model 模型。脚本会自动将模型下载到 EmoLLM/model 目录,下载完成成功运行后,按照 5.1 的手动下载的操作修改 web_demo-aiwei.py 或者 web_internlm2.py 文件注释掉下载代码,防止下次运行重新下载。 6、运行 app.py 后等待模型下载并且加载完毕,可通过浏览器访问: http://0.0.0.0:7860 地址访问模型 web 页面。可修改 app.py 文件修改 web 页面访问端口。 7、替换模型EmoLLM 提供了多种开源模型,分别上传至 openxlab、Huggingface 平台,有爹系男友心理咨询师 老母亲心理咨询师温柔御姐心理医生艾薇等角色,有 EmoLLM_internlm2_7b_full、EmoLLM-InternLM7B-base-10e 等多个模型可选择,目前评测 EmoLLM_internlm2_7b_ful 模型效果较好。可重复步骤 4、5手动或自动下载相关模型放在 EmoLLM/model 目录下或者修改 web_demo-aiwei.py 或者 web_internlm2.py 文件的 download 函数仓库地址自动下载。