水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
返回
上一篇
|
下一篇
|
同主题下篇
主题:DeepSeek的 7b 和 8b 区别还挺大
x97
|
2025-02-13 12:04:30
|
使用 Ollama 分别加载两个模型
DeepSeek-R1-Distill-Qwen-7B
DeepSeek-R1-Distill-Llama-8B
1,启动后,
前者模型内存占用几乎不增加,后者增加 3.5G
2,运算时
后者的 tokens 产出速度是前者的 2 倍,两者内存总占用相当
--
FROM 221.222.240.*
上一篇
|
下一篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版