- 主题:DeepSeek的 7b 和 8b 区别还挺大
使用 Ollama 分别加载两个模型
DeepSeek-R1-Distill-Qwen-7B
DeepSeek-R1-Distill-Llama-8B
1,启动后,
前者模型内存占用几乎不增加,后者增加 3.5G
2,运算时
后者的 tokens 产出速度是前者的 2 倍,两者内存总占用相当
--
FROM 221.222.240.*
据说14b以下使用效果都很差?
--
FROM 101.39.210.*
不能用,胡说八道的水平
【 在 meidong 的大作中提到: 】
: 据说14b以下使用效果都很差?
--
FROM 114.249.198.*
小马过河,装一个试试
【 在 meidong 的大作中提到: 】
: 据说14b以下使用效果都很差?
--
FROM 221.222.240.*