ds r1我也不觉得咋样,所以qwq 32b就算能和ds r1打平也没啥。
但qwq 32b毕竟是个32b模型,部署难度完全不同。
简单的说,说同等资源下,能获得的token处理能力,乘以llm的智力,这个乘积才是最重要的东西。
另外qwq 32b的满血版本是16fp的,最低配置是4卡3090。这个量化精度很重要。思维一直打转大概率是损失精度的版本。有人也做过需要很深思维深度的测试,qwq一个问题思考18000个token后做对。这种情况已经证明了它上限是够的
【 在 adamhj 的大作中提到: 】
: 我看别人的测试,感觉qwq 32b还是比deepseek r1差不少,思考的时候老是原地打转
:
--
修改:lvsoft FROM 222.68.51.*
FROM 222.68.51.*