.......
14b的r1就是智障吧...
deepseek这种256 moe模型,必须有体量,体量小了是不行的。
这个大小应该部署微软的phi-4。phi4的缺点是中文知识缺乏,不过我觉得这种东西可以搭配rag搞定。
ai好不好,最关键的还是看那个预训练模型的智商。其他都是辅助手段。
不行了,今天被ai气的够呛。必须上来吐槽一下。
尼玛让它用rust写一个https server,带webrtc,来利用浏览器来打开麦克风和播放声音。做了一个最简单的echo测试。
前面流畅无比,几分钟不到一个不依赖任何库的https web server + webrtc frontend全部撸好,就是声音有点点“小”问题。
我以为可以快速秒杀,没想到尼玛这个问题死活就是搞不好,不是电音就是各种断续,要不就是频率不对声音高了或者低了。
尼玛我就奇怪了,这么简单的事情怎么会死活调不好,怎么调都不对,哪怕是调的最好的状态也差点意思会有一点点椒盐噪声...
最后我怒了,亲自追它写的代码。追了好多东西最后发现这货用的是getFloatTimeDomainData来取的音频数据。
尼玛我瞬间喷血....怪不得死活调不好了....浪费我2小时....
【 在 PaoloMaldini 的大作中提到: 】
: 真的,我媳妇儿天天念叨,你买个Mac mini回来咱部署个14B的R1帮我做翻译。。
:
--
修改:lvsoft FROM 222.68.51.*
FROM 222.68.51.*