- 主题:chatGPT和SORA背后的计算主机是什么规模的?
--
FROM 218.249.201.*
取决于训练集规模以及计算时间
【 在 phoenixhills 的大作中提到: 】
--
FROM 36.161.235.*
这谁不知道。问的是具体情况。
【 在 foxknox 的大作中提到: 】
: 取决于训练集规模以及计算时间
:
:
--
FROM 218.249.201.*
100张A100的卡,训练一个33B的大模型,一两个星期搞不定。
【 在 phoenixhills 的大作中提到: 】
--
FROM 49.7.252.*
七万亿美元打个骨折的规模呵呵
【 在 phoenixhills 的大作中提到: 】
: --
: FROM 218.249.201.*
--来自微微水木3.5.14
--
FROM 101.84.188.*
CPU肯定要在奔4或Athlon2500+以上
【 在 phoenixhills 的大作中提到: 】
--
FROM 36.112.84.*