水木社区手机版
首页
|版面-苹果(Apple)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
主题:Re: 求用mac本地跑大模型的使用感受
omelet
|
2024-04-23 21:00:55
|
MacBook M2都能跑,不过是量化版本,速度倒是嗖嗖的
【 在 chunhui 的大作中提到: 】
: 最近出了llama3,很多人说可以顶gpt4了。而且可以本地跑。各位有人这么用的么?给介绍一下。如果很好用,考虑也弄一个。
--
FROM 222.129.4.*
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版