- 主题:open-webui找不到模型
如题
我是了两种方法安装open-webui
1. docker
2. pip
在pip里面安装的open-webui,启动`ollama serve`之后,用浏览器可以访问,可以找到本地安装的模型.
通过docker安装的open-webui,启动之后找不到模型.
我想了一想,是不是因为东西安装到了容器里面,和host的ollma是隔离的,所以访问不到?
那么有什么办法能让docker里面放问到host的ollama吗?如何找到model?
谢谢
--
FROM 1.202.141.*
那你的docker run命令是怎么写的?
【 在 lobachevsky 的大作中提到: 】
: 如题
: 我是了两种方法安装open-webui
: 1. docker
: ...................
--
FROM 111.162.221.*
docker pull ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
【 在 tgfbeta 的大作中提到: 】
: 那你的docker run命令是怎么写的?
--
FROM 1.202.141.*
恐怕你需要
--add-host=host.docker.internal:host-gateway
因为只有这样你才能通过host.docker.internal:11434来访问主机上的ollama
【 在 lobachevsky 的大作中提到: 】
: docker pull ghcr.io/open-webui/open-webui:main
: docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
--
FROM 111.162.221.*
或者你可以部署ollama到某个局域网IP,以避免localhost的问题
【 在 tgfbeta 的大作中提到: 】
: 恐怕你需要
: --add-host=host.docker.internal:host-gateway
: 因为只有这样你才能通过host.docker.internal:11434来访问主机上的ollama
: ...................
--
FROM 111.162.221.*
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:mai --add-host=host.docker.internal:host-gateway
这样?
就是我猜的docker和host的ollama不通?
【 在 tgfbeta 的大作中提到: 】
: 恐怕你需要
: --add-host=host.docker.internal:host-gateway
: 因为只有这样你才能通过host.docker.internal:11434来访问主机上的ollama
--
FROM 1.202.141.*
嗯
我用pip安装部署的open-webui到server上面
然后我用局域网里面的一个PC访问这个open-webui,浏览器里面已经能够注册open-webui了,已经登陆了.但是找不到模型.
我试了一下用浏览器访问<server ip>:11434(就是ollama的端口号),然后访问不到,ollama没起.但实际上server端是起来了的.
我最开始以为是防火墙的问题.但是没有道理8080端口号是通的,11434不通.
那这个是不是就是您说的ollama没有部署到局域网IP的问题?
【 在 tgfbeta 的大作中提到: 】
: 或者你可以部署ollama到某个局域网IP,以避免localhost的问题
--
FROM 1.202.141.*
docker内的网络应该看不到ollama的
因为不管是虚拟机还是namespace,lo0应该有隔离或者是假的
【 在 lobachevsky 的大作中提到: 】
: docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:mai --add-host=host.docker.internal:host-gateway
: 这样?
: 就是我猜的docker和host的ollama不通?
: ...................
--
FROM 111.162.221.*
问题是docker里的python进程得能看到11434的服务
现在你的主机和docker里有两个不一样的localhost
你干脆让ollama在C类地址上listen就差不多了
【 在 lobachevsky 的大作中提到: 】
: 嗯
: 我用pip安装部署的open-webui到server上面
: 然后我用局域网里面的一个PC访问这个open-webui,浏览器里面已经能够注册open-webui了,已经登陆了.但是找不到模型.
: ...................
--
FROM 111.162.221.*