水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
同主题上篇
主题:Re: AnythingLLM+Ollama+Qwen2-7Bgguf不好使啊
tgfbeta
|
2026-04-11 11:15:27
|
首先确定你的显卡VRAM大小
然后找一个合适的量化模型,能保证你的权重和kv cache完全塞进vram
【 在 kipking 的大作中提到: 】
: 搭了一个,win10的游戏本,GPU加速之后,嵌入还是很慢,query也是乱七八糟的,惨不忍睹的。
--
FROM 117.11.95.*
上一篇
|
同主题上篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版