水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
主题:Re: 刚刚试了本地跑Qwen3的30B MoE模型
tgfbeta
|
2025-04-30 14:25:12
|
0.6B的模型都可以深度思考
【 在 ArchLinux 的大作中提到: 】
: 我的笔记本是10年前的笔记本,CPU只有双核4线程,但是有24G内存。我用的是ollama给的Q4_K_M量化版,把其他应用关掉开ollama跑,系统内存占用20G,速度比qwen2.5:3b慢一些。
--
FROM 125.38.176.*
上一篇
|
下一篇
|
同主题上篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版