水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
主题:Re: 据说用m4 macmini可以替代4090显卡搞ai?
chunhui
|
2024-11-12 11:44:50
|
128G的太贵了。我也只是好奇想试试。不是专门干这个的。不划算。
【 在 systemID 的大作中提到: 】
: 感觉最低配只能训练一些小模型,大的模型还是得依赖统一内存够大。再一个计算能力也不一定比得过同价位显卡。如果是128g顶配m4max,用来做llm本地推理倒是挺棒的,先不论速度怎么样,至少不会爆显存。毕竟相当于4块4090的显存。
--
FROM 117.133.52.*
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版