确实,感觉喂的语料里面垃圾太多了造成的!
LLM的训练并不是数据越多越好,而是高质量的数据越多越好!垃圾数据太多只能训练个傻子出来!
【 在 lvsoft 的大作中提到: 】
: 我接入了deepseek的官方api,然后刚才我忽然冒出来的突发奇想的点子,刚准备和claude 3.5 sonnet聊聊的时候有想到可以拉上r1一起对比下看看效果。
: 结果这完全没法用,r1基本就是在胡说八道。
: 我只截取了最后一段,但前面r1的回答比这个更离谱...
: ...................
--
FROM 36.161.235.*