水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
返回
1/1
|
转到
主题:DeepSeek的 7b 和 8b 区别还挺大
楼主
|
x97
|
2025-02-13 12:04:30
|
展开
使用 Ollama 分别加载两个模型
DeepSeek-R1-Distill-Qwen-7B
DeepSeek-R1-Distill-Llama-8B
1,启动后,
前者模型内存占用几乎不增加,后者增加 3.5G
2,运算时
后者的 tokens 产出速度是前者的 2 倍,两者内存总占用相当
--
FROM 221.222.240.*
3楼
|
x97
|
2025-02-14 21:41:22
|
展开
小马过河,装一个试试
【 在 meidong 的大作中提到: 】
: 据说14b以下使用效果都很差?
--
FROM 221.222.240.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版