说得好!
直接回答我的问题,我的16G的mbp,会不会遭受AI使用方面的限制?比64G的mbp
我期待你的回答是:其实也没啥太大差别,16G干不了的事情,64G一样干不了
【 在 stevenwyy 的大作中提到: 】
: 本地训练不现实,稍微有需求的公司可能拿来做finetuning,内存其实基本够了,开源的llama2 70b也就140g,只是mac单核显卡算力不够,m2ultra也只是4090的弟弟,尽管4090只有24g显存。做本地推理还是可以的,但最多也就是应应急罢了,和在线的LLM性能不好比。私以为最终苹果的ai也大概率在线的,毕竟手机的ram更可怜。
--
FROM 157.122.5.*