水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
主题:Re: 各位大佬,用 mac mini m4 上搭14b 的模型做私有知识库 是
booble
|
2025-02-21 09:03:29
|
我的是M3,18GB内存,用的是ollama部署和运行的。
运行的时候速度很慢,生成的文本里中英文混杂基本不可用。
【 在 jornnyR 的大作中提到: 】
: 我本地部署了14B的,然后用crewAI去调用,跑一次有点慢1分钟吧,不过我也不要求响应那么及时
: 我是M4, 32G的MacBook
--
FROM 223.101.86.*
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版