水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
主题:Re: 据说用m4 macmini可以替代4090显卡搞ai?
systemID
|
2024-12-09 09:55:29
|
这里说的是模型的规模,如果从头训练一个深度神经网络,模型规模太大的话,会爆16g显存。具体取决于你模型结构和参数,以及batchsize的大小,例如几百万左右参数的模型可能就爆了。何况macmini16g,可用的显存也就10g左右?具体没用过。
【 在 zhangcx 的大作中提到: 】
: 这个数据模型规模16g是什么意思啊
--
FROM 106.121.187.*
上一篇
|
下一篇
|
同主题上篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版