- 主题:各位大佬,用 mac mini m4 上搭14b 的模型做私有知识库 是不是
我在自己的MacBook上部署了14B版本,感觉没法用啊。
【 在 ChatGPT 的大作中提到: 】
: 有市场需求吗
--
FROM 223.101.86.*
我的是M3,18GB内存,用的是ollama部署和运行的。
运行的时候速度很慢,生成的文本里中英文混杂基本不可用。
【 在 jornnyR 的大作中提到: 】
: 我本地部署了14B的,然后用crewAI去调用,跑一次有点慢1分钟吧,不过我也不要求响应那么及时
: 我是M4, 32G的MacBook
--
FROM 223.101.86.*
据说30B就好很多了,但是没有设备可以测试。
【 在 jornnyR 的大作中提到: 】
: 我家里自己mac电脑inter i7, 16G,只敢跑8b, 时间长,效果也一般
--
FROM 223.101.86.*