- 主题:现在不少人开始反思大模型和数据驱动的AI了
推理和数据本来就是两回事,
是知识的两个支撑脚。
我彷佛记得,几年前,家版还有过几场大争论:关于985研究生缺乏常识性文史知识。
有普信蠢货走到另一个极端,说什么知识点反正能查到,不用记。
【 在 qtpr 的大作中提到: 】
: 例如最近苹果团队发了一个文(附图1),结论是“大模型”并没有真正学会推理。最简单的例子,把一些小学水平应用题中的主角从Alice改成Bob,大模型的“计算”正确率就可能显著下降。这说明大模型并不真正理解应用题的题意,而只是机械地死记硬背了若干应用题而已。而且死记硬背得非常蹩脚,连主角改名这个trick都能让大模型失控。这种水准的智能,跟智障有何区别呢,呵呵。
: 另外,最近最近nature也有一篇论文(附图2),看题目就一目了然了——“大模型不可靠”
: [upload=1][/upload]
: ...................
--
FROM 125.69.147.*
自动驾驶我不同意你的观点。
我既不会高估,也不会低估大数据的能力。
AlphaFold, AlphaGo就是大数据有一定联想推理能力的例证。
我只是认为像等效原理,相对性原理这样的纯思辨问题是大数据根本没能力得到的。
【 在 qtpr 的大作中提到: 】
: 数据无法解决外推问题。或者说只依赖数据,只能建立描述经验数据的唯象理论,不可能完成牛顿和爱因斯坦所做的理论综合和泛化。这都是常识。
: 所以我早告诉过你,不要信数据驱动的自动驾驶。自动驾驶的场景复杂性比一般人认为的更大。大模型的两个致命问题:灾难性遗忘和幻觉,本质上是因为神经网络训练的不可解释和不可控性。你根本不知道它从数据中能学到什么。这种架构是没法很好地应用于开放环境下对可靠性要求很高的任务的,例如自动驾驶。
:
--
FROM 125.69.147.*
吵自动驾驶没意思,估计车版不知道多少人拍过你了。
很显然的结论:自动驾驶导致的危险必然是数量级上远小于人类的。
自动驾驶所涉及的场景在99.9999%下也是个封闭系统,
只是量级大一些而已。
反对自动驾驶在我看来就如同因为车祸而反对汽车,
而坚持人类应该继续步行交通一样(忽略马车)。
【 在 qtpr 的大作中提到: 】
: 棋类游戏是规则明确可形式化的封闭世界,跟开放世界中的问题有本质区别。
: 开放世界的规则经常根本是不可形式化的。简单的例子,有时你违反交规反倒更安全,例如高速服务区的出口你前边遇到了慢车,压着你没法提速并入主道。这时你观察到后边实际上没车,可以压实线提前并入主道。类似的情况,人知道该怎么选,但很难用一致且完备的形式系统形式化出来。
:
--
FROM 125.69.147.*
我说过了,我并不确定5年内,
但是能确定20年内。
以理论性而言,5年和20年并无区别。
【 在 qtpr 的大作中提到: 】
: 打赌你又不敢,只嘴硬,没意思
:
--
FROM 125.69.147.*
同时,正因为早年有砸机器的工人,
现在有因为0.0001%出错几率而反对自动驾驶的老图们,
所以大规模使用才可能被延后。
【 在 qtpr 的大作中提到: 】
: 打赌你又不敢,只嘴硬,没意思
:
--
FROM 125.69.147.*
那取个中值把。
赌10年,如果水木还没倒,我们也都还活得好好的话。
【 在 qtpr 的大作中提到: 】
: 赌数据驱动的深度学习范式,多少年我都可以跟你赌
:
--
FROM 125.69.147.*