4cfad5ae0f
- 全新ui - 全面优化websocket逻辑,提高数字人和ui连接的稳定性及资源开销 - 全面优化唤醒逻辑,提供稳定的普通唤醒模式和前置词唤醒模式 - 优化拾音质量,支持多声道麦克风拾音 - 优化自动播放服务器的对接机制,提供稳定和兼容旧版ue工程的对接模式 - 数字人接口输出机器人表情,以适应新fay ui及单片机的数字人表情输出 - 使用更高级的音频时长计算方式,可以更精准控制音频播放完成后的逻辑 - 修复点击关闭按钮会导致程序退出的bug - 修复没有麦克风的设备开启麦克风会出错的问题 - 为服务器主机地址提供配置项,以方便服务器部署 |
||
---|---|---|
.. | ||
README.md | ||
test_ollama_api.py |
1、在ollama官网下载安装ollama到本地或者服务器上
2、拉取常见模型(多选一)
ollama pull llama2:latest #meta开源模型
ollama pull phi:latest #微软开源模型
ollama pull gemma:latest #google开源模型
ollama pull yi:latest #01开源模型
ollama pull qwen:latest #阿里开源模型
3、修改系统配置文件system.conf
本地配置
chat_module=ollama_api
ollama_ip = 127.0.0.1
ollama_model = phi:latest # llama2:latest , yi:lastest , pi:latest , gemma:latest (开源大语言模型多选1)
服务配置
chat_module=ollama_api
ollama_ip = xxx.xxx.xxx.xxx #服务器IP地址
ollama_model = phi:latest # llama2:latest , yi:lastest , pi:latest , gemma:latest (开源大语言模型多选1多选1)
4、启动ollama服务
python main.py
备注:ollama接口由亿嘉和具身智能算法工程师陈张提供