- 主题:虽然用不上,但心里觉得爽
M3 max+128g,爽,但是实际用不上,虽然
--
FROM 124.64.22.*
啥玩意儿,不懂爽在何处
【 在 xmys1999 的大作中提到: 】
: M3 max+128g,爽,但是实际用不上,虽然
--
FROM 39.144.100.*
挺好的
【 在 xmys1999 的大作中提到: 】
: M3 max+128g,爽,但是实际用不上,虽然
--
FROM 112.10.213.*
土豪,真有钱
【 在 xmys1999 的大作中提到: 】
: M3 max+128g,爽,但是实际用不上,虽然
--
修改:caijh05 FROM 59.61.69.*
FROM 59.61.69.*
装个llama 3,本地gpt4级别的ai
【 在 xmys1999 (xmys1999) 的大作中提到: 】
: M3 max+128g,爽,但是实际用不上,虽然
: --
:
:
--
FROM 61.157.0.*
这个需要本地的什么样的资源啊?
【 在 sgdf 的大作中提到: 】
: 装个llama 3,本地gpt4级别的ai
--
FROM 117.133.52.*
有个几十G的硬盘空间即可,安装教程网上搜一搜
【 在 chunhui 的大作中提到: 】
: 这个需要本地的什么样的资源啊?
- 来自 水木说
--
FROM 110.191.167.*
几十G不难。cpu和内存不需要多大么?macbook pro就可以装?
【 在 sgdf 的大作中提到: 】
: 有个几十G的硬盘空间即可,安装教程网上搜一搜
: - 来自 水木说
--
FROM 117.133.52.*
统一内存的机器,内存48G的可以装70b的模型,小了就只能装8b的,但小的这个就达不到gpt4水准了
【 在 chunhui 的大作中提到: 】
: 几十G不难。cpu和内存不需要多大么?macbookpro就可以装?
- 来自 水木说
--
FROM 110.191.167.*
我刚才网上搜了一圈,有不少都说要显卡的。在macbook上跑用cpu,那mac的神经核是不是没用到。你用着感觉怎么样?给介绍一下,考虑是不是也装一个本地的。都说有gpt4水准,那搞一个本地的还是挺好的。
【 在 sgdf 的大作中提到: 】
: 统一内存的机器,内存48G的可以装70b的模型,小了就只能装8b的,但小的这个就达不到gpt4水准了
: - 来自 水木说
--
FROM 117.133.52.*