的确不会有太大差别。别说64g的了,我用192g的mac studio试了huggingface上的各种高分模型也基本上就是gpt3.5的水准,在gpt4turbo面前不堪一击,因为参数量上应该是10倍甚至是百倍的差距。apple ai要不比gpt4turbo差太多的话,至少也得是1TB的大小,那么目前看来apple silicon自己也做不到,只能还是用nvidia的显卡cluster算好放在自家的服务器上了
【 在 beaver (因果) 的大作中提到: 】
: 说得好!
:
: 直接回答我的问题,我的16G的mbp,会不会遭受AI使用方面的限制?比64G的mbp
:
--
FROM 39.144.45.*