用残差神经网络霸王硬上弓看看。
【 在 Xjt 的大作中提到: 】
: 最简单的Kaggle房价预测题目,我用Ridge随便跑了下,cross validation的mse可以跑到0.135左右
: 而用神经网络跑,针对训练集,mse都在0.16左右,我企图增大模型对训练集过拟合都没法做到降低loss,最终都是收敛到0.16就怎么也不下降了
: 网上能找到的方法都试遍了,什么参数是否正则归一(是或者不是都试了),用Relu或者leak relu,用Adam优化其,调整学习步长,增加网络层数(最多加到20层每层2000个节点)。每次要不是根本loss不收敛,要不就是收敛到局部最优解但mse只有0.16还不如ridge随便跑跑的结果好
: ...................
--
FROM 112.47.99.*