- 主题:有人ollama+openclaw部署成功的吗
我是本地都完成了
但是用不起来
模型可以单独离线访问ok,但是在openclaw里面半天不回复。
--
FROM 119.80.6.*
ollama很多模型的工具调用都不行,特别是qwen3.5系列,改用llama.cpp就好了。
【 在 RAV4 的大作中提到: 】
: 我是本地都完成了
: 但是用不起来
: 模型可以单独离线访问ok,但是在openclaw里面半天不回复。
: ...................
--
FROM 171.222.253.*
多谢,还是在线的吧
本地运行模型的声音太响了
没有显卡也是个问题
【 在 netvideo 的大作中提到: 】
: ollama很多模型的工具调用都不行,特别是qwen3.5系列,改用llama.cpp就好了。
--
FROM 119.80.6.*