olivebot/test/ollama/test_ollama_api.py
guo zebin 4cfad5ae0f 年翻更新
- 全新ui
- 全面优化websocket逻辑,提高数字人和ui连接的稳定性及资源开销
- 全面优化唤醒逻辑,提供稳定的普通唤醒模式和前置词唤醒模式
- 优化拾音质量,支持多声道麦克风拾音
- 优化自动播放服务器的对接机制,提供稳定和兼容旧版ue工程的对接模式
- 数字人接口输出机器人表情,以适应新fay ui及单片机的数字人表情输出
- 使用更高级的音频时长计算方式,可以更精准控制音频播放完成后的逻辑
- 修复点击关闭按钮会导致程序退出的bug
- 修复没有麦克风的设备开启麦克风会出错的问题
- 为服务器主机地址提供配置项,以方便服务器部署
2024-10-26 11:34:55 +08:00

36 lines
1.1 KiB
Python

import json
import requests
import time
def question(cont):
url=f"http://localhost:11434/api/chat"
req = json.dumps({
"model": "phi:latest",
"messages": [{
"role": "user",
"content": cont
}],
"stream": False
})
headers = {'content-type': 'application/json'}
session = requests.Session()
starttime = time.time()
try:
response = session.post(url, data=req, headers=headers)
response.raise_for_status() # 检查响应状态码是否为200
result = json.loads(response.text)
response_text = result["message"]["content"]
except requests.exceptions.RequestException as e:
print(f"请求失败: {e}")
response_text = "抱歉,我现在太忙了,休息一会,请稍后再试。"
print("接口调用耗时 :" + str(time.time() - starttime))
return response_text.strip()
if __name__ == "__main__":
for i in range(3):
query = "爱情是什么"
response = question(query)
print("\n The result is ", response)