训练方法和训练质量的问题其实也是阶段性问题。好比有了transformer才有现在的llm大爆发。
我是觉得gpt4现在只能说达到的高度比较高,但达到这个高度的效率是比较差的。
而现在大家另一方面比较重要的工作是把LLM缩小精简同时尽量保持性能,这部分工作就在专注效率提升上。两者的结合最终是能达成更高规模参数的有效训练的。
其实就mcu本身就是干杂活的,里面的很多东西,比如初始化timer,初始化dma之类的,我根本就不想去关心怎么初始化,但如果没有工具辅助,要自己读手册弄清楚也很耗精力。这种脏活累活用ai来搞就非常合适。
【 在 eggcar 的大作中提到: 】
: 参数多到一定程度,训练方法和训练质量更重要了【将来可能要划到教育学范畴里了
: 总之我的使用体验是,ai目前还不能帮你解决真正的逻辑问题,更多的是自然语言理解 并从海量的已有信息里提取出相关性最高的输出,LLM确实杀死了NLP的比赛
: 用在写代码里,更多的是解决了重体力工作,比如怎么调库传参,一些“行活”可以直接给出code snippet等等,还有根据你已有的代码上下文推断接下来应该怎么写 这一点有时候推断非常准,有时候也很智障...总之确实是一项生产工具的质的提升,堪比当年搜索引擎的问世 但是同样也面临垃圾信息干扰的问题
: ...................
--
FROM 180.111.27.*