水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
返回
1/1
|
转到
主题:chatGPT和SORA背后的计算主机是什么规模的?
3楼
|
wFisher
|
2024-02-20 17:57:46
|
展开
100张A100的卡,训练一个33B的大模型,一两个星期搞不定。
【 在 phoenixhills 的大作中提到: 】
--
FROM 49.7.252.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版