- 主题:现在AI方向的论文同质化太严重
又快到了毕业季,审了几篇学位论文,全都用深度学习,基本就是那几个常用的模型元素组合重用一下,做做实验,然后宣布“性能有提升”,没有可解释性和理论性能保证,只有所谓的“实验证据”。
问题是做实验时一般都会根据模型在测试集上的表现迭代地调整模型的超参数,所以所谓的测试集跟模型选择和训练过程是耦合的,并非真正意义上的测试集。这种所谓的测试过拟合的风险很大,会有利于复杂模型。
感觉现在国内AI这个方向算废了,学生们只会用别人写的平台软件搭搭积木连连线(神经网络),没有理论思考,更没有深入新颖的数学分析和建构,不少硕士生博士生毕业时连基本的数理统计都整不明白了。
--
修改:qtpr FROM 111.167.231.*
FROM 111.167.231.*
高校不搞模型还能搞什么?呵呵
另外,NN的模型,大都是高校搞出来的。
【 在 Nothings 的大作中提到: 】
: 普通学生也就这样了,真搞模型开发高校也没有算力和财力,真正的人才是万里挑一,在企业界。
--
FROM 111.167.231.*
scaling law和大模型这一套上限已经可见了,内有真正的思维能力,没法实现AGI
【 在 Nothings 的大作中提到: 】
: 可惜都是国外的高校,高校确实有理论贡献,但是openai用scaling law才真正做出有智能的gpt。真正有影响力的人还是企业界,google,meta,包括国内的大厂,指望国内ai专业的学生,不太现实。
--
FROM 111.167.231.*
现在不少人通过给gpt这类大模型设计“提示词”就能发论文。这种论文有什么意义呢,呵呵。
【 在 MyRina 的大作中提到: 】
: 用chat gtp吗
--
FROM 111.167.231.*
数据驱动让人心太浮躁
【 在 TexasPotato 的大作中提到: 】
: 唉,有个做激光雷达的博士,连平面解析几何,坐标变换都都不会
:
--
FROM 111.167.231.*