- 主题:Deepseek-R1:8b VS LLAMA3.2:3b实际代码比较 (转载)
网上说有人拿8个mac nini m4 才能跑8b量化版。你这个本地设备也是这个量级?
【 在 foxknox 的大作中提到: 】
: 【 以下文字转载自 NewExpress 讨论区 】
: 发信人: foxknox (3爷), 信区: NewExpress
: 标 题: Deepseek-R1:8b VS LLAMA3.2:3b实际代码比较
: ...................
--
FROM 117.133.52.*
一个公众号说的。公众号胡说居多。8个mini跑全量的应该没问题。
【 在 foxknox 的大作中提到: 】
: 怎么可能嘛。。。
--
FROM 117.133.52.*
应该是公众号瞎扯。当我没说好了。
【 在 tgfbeta 的大作中提到: 】
: 不是有官方蒸馏版本吗?
--
FROM 117.133.52.*