又快到了毕业季,审了几篇学位论文,全都用深度学习,基本就是那几个常用的模型元素组合重用一下,做做实验,然后宣布“性能有提升”,没有可解释性和理论性能保证,只有所谓的“实验证据”。
问题是做实验时一般都会根据模型在测试集上的表现迭代地调整模型的超参数,所以所谓的测试集跟模型选择和训练过程是耦合的,并非真正意义上的测试集。这种所谓的测试过拟合的风险很大,会有利于复杂模型。
感觉现在国内AI这个方向算废了,学生们只会用别人写的平台软件搭搭积木连连线(神经网络),没有理论思考,更没有深入新颖的数学分析和建构,不少硕士生博士生毕业时连基本的数理统计都整不明白了。
--
修改:qtpr FROM 111.167.231.*
FROM 111.167.231.*