4cfad5ae0f
- 全新ui - 全面优化websocket逻辑,提高数字人和ui连接的稳定性及资源开销 - 全面优化唤醒逻辑,提供稳定的普通唤醒模式和前置词唤醒模式 - 优化拾音质量,支持多声道麦克风拾音 - 优化自动播放服务器的对接机制,提供稳定和兼容旧版ue工程的对接模式 - 数字人接口输出机器人表情,以适应新fay ui及单片机的数字人表情输出 - 使用更高级的音频时长计算方式,可以更精准控制音频播放完成后的逻辑 - 修复点击关闭按钮会导致程序退出的bug - 修复没有麦克风的设备开启麦克风会出错的问题 - 为服务器主机地址提供配置项,以方便服务器部署
38 lines
925 B
Markdown
38 lines
925 B
Markdown
1、在[ollama官网下载](https://ollama.com/download)安装ollama到本地或者服务器上
|
||
|
||
2、拉取常见模型(多选一)
|
||
```
|
||
ollama pull llama2:latest #meta开源模型
|
||
|
||
ollama pull phi:latest #微软开源模型
|
||
|
||
ollama pull gemma:latest #google开源模型
|
||
|
||
ollama pull yi:latest #01开源模型
|
||
|
||
ollama pull qwen:latest #阿里开源模型
|
||
```
|
||
|
||
3、修改系统配置文件system.conf
|
||
|
||
本地配置
|
||
```
|
||
chat_module=ollama_api
|
||
|
||
ollama_ip = 127.0.0.1
|
||
ollama_model = phi:latest # llama2:latest , yi:lastest , pi:latest , gemma:latest (开源大语言模型多选1)
|
||
```
|
||
服务配置
|
||
```
|
||
chat_module=ollama_api
|
||
|
||
ollama_ip = xxx.xxx.xxx.xxx #服务器IP地址
|
||
ollama_model = phi:latest # llama2:latest , yi:lastest , pi:latest , gemma:latest (开源大语言模型多选1多选1)
|
||
```
|
||
|
||
4、启动ollama服务
|
||
```
|
||
python main.py
|
||
```
|
||
|
||
备注:ollama接口由亿嘉和具身智能算法工程师陈张提供 |