水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
返回
上一篇
|
下一篇
|
同主题下篇
主题:open-webui找不到模型
lobachevsky
|
2025-02-07 11:31:35
|
如题
我是了两种方法安装open-webui
1. docker
2. pip
在pip里面安装的open-webui,启动`ollama serve`之后,用浏览器可以访问,可以找到本地安装的模型.
通过docker安装的open-webui,启动之后找不到模型.
我想了一想,是不是因为东西安装到了容器里面,和host的ollma是隔离的,所以访问不到?
那么有什么办法能让docker里面放问到host的ollama吗?如何找到model?
谢谢
--
FROM 1.202.141.*
上一篇
|
下一篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版