- 主题:open-webui找不到模型
那你的docker run命令是怎么写的?
【 在 lobachevsky 的大作中提到: 】
: 如题
: 我是了两种方法安装open-webui
: 1. docker
: ...................
--
FROM 111.162.221.*
恐怕你需要
--add-host=host.docker.internal:host-gateway
因为只有这样你才能通过host.docker.internal:11434来访问主机上的ollama
【 在 lobachevsky 的大作中提到: 】
: docker pull ghcr.io/open-webui/open-webui:main
: docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
--
FROM 111.162.221.*
或者你可以部署ollama到某个局域网IP,以避免localhost的问题
【 在 tgfbeta 的大作中提到: 】
: 恐怕你需要
: --add-host=host.docker.internal:host-gateway
: 因为只有这样你才能通过host.docker.internal:11434来访问主机上的ollama
: ...................
--
FROM 111.162.221.*
docker内的网络应该看不到ollama的
因为不管是虚拟机还是namespace,lo0应该有隔离或者是假的
【 在 lobachevsky 的大作中提到: 】
: docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:mai --add-host=host.docker.internal:host-gateway
: 这样?
: 就是我猜的docker和host的ollama不通?
: ...................
--
FROM 111.162.221.*
问题是docker里的python进程得能看到11434的服务
现在你的主机和docker里有两个不一样的localhost
你干脆让ollama在C类地址上listen就差不多了
【 在 lobachevsky 的大作中提到: 】
: 嗯
: 我用pip安装部署的open-webui到server上面
: 然后我用局域网里面的一个PC访问这个open-webui,浏览器里面已经能够注册open-webui了,已经登陆了.但是找不到模型.
: ...................
--
FROM 111.162.221.*