水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
返回
1/1
|
转到
主题:怎么感觉24G显存不太够用?
4楼
|
donkeymeat
|
2022-11-29 02:16:33
|
展开
transformer的patch大小多少,太小肯定超啊。再加上multi-head。大公司都至少16块A100训练的。算力推得满满的。个人玩玩就行。
--
FROM 114.249.223.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版