- 主题:回看2010年的AI讨论帖子,那时还有人支持向量机
明明神经网络已经开始崛起了。。。这就是眼光的差别
--
FROM 117.136.32.*
现在也照常可以用SVM,看场合。深度学习不是万能的。
【 在 acseed 的大作中提到: 】
: 明明神经网络已经开始崛起了。。。这就是眼光的差别
--
FROM 61.150.11.*
最近看,xgb都开始被变形金刚鞭打了
【 在 profounder 的大作中提到: 】
: 现在也照常可以用SVM,看场合。深度学习不是万能的。
:
--
FROM 117.136.32.*
论文看看
【 在 acseed 的大作中提到: 】
: 最近看,xgb都开始被变形金刚鞭打了
: :
--
FROM 223.166.233.*
Unleashing the Potential of Large Language Models for Predictive Tabular Tasks in Data Science
Table 2,Table 3
【 在 terminats51 的大作中提到: 】
: 论文看看
:
--
FROM 119.130.71.*
95年还有人支持wps、cced,明明word、excel已经开始崛起了,这就是眼光的差别。
【 在 acseed 的大作中提到: 】
: 明明神经网络已经开始崛起了。。。这就是眼光的差别
--
FROM 223.66.33.*
30年河东,30年河西,大模型并不是必要的,它的成功更多是因为大数据
未来肯定会出现一个和SVM类似,比大模型更精简,性能更好的模型
【 在 acseed 的大作中提到: 】
: 明明神经网络已经开始崛起了。。。这就是眼光的差别
--
FROM 223.72.73.*
大模型的精髓。loss函数不是重点。
只要算力够,数据多,用svm也能训出现在ChatGPT的水平,可能就是需要的更多了而已。
--
FROM 101.39.135.*
这个真不对,一定程度上你可以把SVM看作ChatGPT的特例情况,表达能力上就差远了。
【 在 whistlingMe 的大作中提到: 】
: 大模型的精髓。loss函数不是重点。
: 只要算力够,数据多,用svm也能训出现在ChatGPT的水平,可能就是需要的更多了而已。
--
FROM 59.66.113.*
看ilya刚点赞的那篇论文,只要数据足够多,结果都一样。
而且svm其实和transform也可以配合用,当然,你非得用svm做ChatGPT,工程复杂度肯定要大得多就是了。
【 在 laoqi 的大作中提到: 】
: 这个真不对,一定程度上你可以把SVM看作ChatGPT的特例情况,表达能力上就差远了。
--
FROM 101.39.135.*