毛病吧?我前面列的3个模型不是结果?
这种超过所有开源模型的结果每2-3个月就会爆出一个,也就是你们这帮外行会当个事。
比如一年前的mistral 8x7b,这个就是8个7b模型,在当时就做到了开源大模型第一呀,你真以为deepseek这种事是第一次么?
顺便你以为就你知道moe好别人都是蠢货嘛?你知道moe的问题吗?你知道gpt4就是moe模型,要追根溯源的话一切都源自gpt4么?
【 在 db1 的大作中提到: 】
: 论证一大堆扯,就看投入产出比,你说小模型是捷径,又没人拦着不让其他家走,也作出结果来嘛
--
修改:lvsoft FROM 39.144.40.*
FROM 222.68.48.*