水木社区手机版
首页
|版面-苹果(Apple)|
新版wap站已上线
返回
1/1
|
转到
主题:求用mac本地跑大模型的使用感受
3楼
|
syssky
|
2024-04-24 11:22:48
|
展开
只要内存够大72b的量化都能跑。国外模型的问题是对中文支持普遍不太行。
【 在 chunhui (北瓜) 的大作中提到: 】
: 最近出了llama3,很多人说可以顶gpt4了。而且可以本地跑。各位有人这么用的么?给介绍一下。如果很好用,考虑也弄一个。
: --
:
:
--
FROM 124.127.220.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版