- 主题:据说用m4 macmini可以替代4090显卡搞ai?
请问最低配置能这么搞的是啥?学习目的。
--
FROM 117.133.52.*
128G的太贵了。我也只是好奇想试试。不是专门干这个的。不划算。
【 在 systemID 的大作中提到: 】
: 感觉最低配只能训练一些小模型,大的模型还是得依赖统一内存够大。再一个计算能力也不一定比得过同价位显卡。如果是128g顶配m4max,用来做llm本地推理倒是挺棒的,先不论速度怎么样,至少不会爆显存。毕竟相当于4块4090的显存。
--
FROM 117.133.52.*
有道理。自己只是试试,没必要花那么多钱。
【 在 systemID 的大作中提到: 】
: 我自己用黑苹果6600xt显卡训过小模型,macos的pytorch mps后端,内存24g,好处是内存有压力的时候会用swap分区。但是依然明显感觉到8g显存+24g内存不是很够。后来想着把内存加到64g试试来着,但是现在云上的显卡很便宜了,显存又大,浮点数运算又快,只需要一小时几块钱,和小
: 时候去网吧差不多,就不折腾macos了。苹果的内存太金贵,24g统一内存要加那么多钱,不如云上租显卡。
--
FROM 117.133.52.*
了解!学习了。
【 在 systemID 的大作中提到: 】
: 如果只是学着玩一玩,手写个反向传播,小数据集mnist之类的跑一跑。或者自有数据集几万条数据训练个模型之类的。最低配m4 mac mini我觉得没啥问题。比一般的8g显存显卡强,虽然浮点计算未必能超过4060,但是显存大啊,从这个角度来说,比单独买一张显卡强。如果数据模型规模
: 16g,一律建议云上租显卡。现在有的云上单显卡24g显存一小时才两块钱。
--
FROM 117.133.52.*