看了版大的总结后,我的两个引申体会是:
(1)所有基于神经网络训练出来的算法,貌似都不能学会真正的“递归”。不说这个bug中的“递归”,就算简单的数学递归,ChatGPT也是不会的(比如这篇文章里提到的各种简单基准任务:
https://arxiv.org/pdf/2108.04378.pdf)。
(2)以后自动驾驶也会碰到类似的尴尬。以后就算人工智能整体事故率低于人类驾驶员,但是如果在某些人类不会犯错的场景机器犯傻了,情况就尴尬了。比如,人类看见前方森林大火,肯定车子马上掉头了。但是机器可能根本没见过森林大火,继续向前。
【 在 computec 的大作中提到: 】
: 强化学习算法学到的东西 和我们理解的世界是不同的
: 他们有时候会完全无法按照我们所理解方式和预期去工作
: 我们可能永远无法确定的避免这类缺陷
: ...................
--
FROM 174.160.176.*