- 主题:mac跑大模型怎么样呢?
准备买个m3 max 128G跑大模型推理,gpu据说能用上?效果怎么样?
--
FROM 39.144.106.*
能跑,跑6B 13B都ok。
更大的估计会有点慢了。
Apple Silicon的mps优化也很明显。
【 在 artech51 的大作中提到: 】
: 准备买个m3 max 128G跑大模型推理,gpu据说能用上?效果怎么样?
--
FROM 120.244.12.*
推理没问题。128G可以跑34B毫无压力,跑70b得量化了。还可以做作34B codeLlama的Lora fine-tune,就是坑很多,很多现成的fine-tune代码不能用,得自己写。
【 在 artech51 的大作中提到: 】
: 准备买个m3 max 128G跑大模型推理,gpu据说能用上?效果怎么样?
--
FROM 220.243.154.*
4090的话是不是跑不了34B?
【 在 Xjt 的大作中提到: 】
: 推理没问题。128G可以跑34B毫无压力,跑70b得量化了。还可以做作34B codeLlama的Lora fine-tune,就是坑很多,很多现成的fine-tune代码不能用,得自己写。
--
FROM 139.227.98.*
4090才多点显存啊。。。这玩意毫无用处。我自己的mac都32g内存,吊打4090。
【 在 artech51 的大作中提到: 】
: 4090的话是不是跑不了34B?
--
FROM 220.243.154.*
我就趁着4090被禁前买了一个,想着反正不玩了也能出个好价钱
其实我不需要训练大模型,我是需要一些深度学习模型搞量化
【 在 Xjt 的大作中提到: 】
: 4090才多点显存啊。。。这玩意毫无用处。我自己的mac都32g内存,吊打4090。
--
FROM 139.227.98.*
你可以自己算下,34B乘以32bit是多少吧
【 在 artech51 的大作中提到: 】
: 4090的话是不是跑不了34B?
--
FROM 222.129.3.*
估算的话,干脆直接记 1就好了,也就是 7B-BF 就是 7 * 2 = 14 GB 的显存,因为除了参数,推理还需要另外的显存,溢出一点没坏处。
【 在 artech51 的大作中提到: 】
: 4090的话是不是跑不了34B?
--
FROM 222.129.3.*
如果跑7B的话,4090比mbp顶配gpu会快多少呢?
【 在 omelet 的大作中提到: 】
: 估算的话,干脆直接记 1就好了,也就是 7B-BF 就是 7 * 2 = 14 GB 的显存,因为除了参数,推理还需要另外的显存,溢出一点没坏处。
:
--
FROM 139.227.98.*
快也没意义,做推理就你一个人用,你要那么快干啥呢。做fine-tune的话,4090玩玩7B模型微调还是不错的
【 在 artech51 的大作中提到: 】
: 如果跑7B的话,4090比mbp顶配gpu会快多少呢?
: :
--
FROM 39.144.106.*