这没啥奇怪的吧,openai觉得这个例子能说明chatgpt达到的高度,然后有人找到了漏洞而已。
最近连ai围棋都被人找到漏洞了,我觉得接下来很长一段时间内这都会是个经常发生的现象。
就是任何ai拿出来,你都有可能找到一个非常trivial的例子,让ai发生对普通人来说都不可能发生的难以理解的失效。
但我还是那句话,现在更需要看的是天花板,而不是地板。因为天花板的突破更难,而地板的漏洞很容易修补。最简单的方法,来三个独立训练,独立设计的AI互相交叉验证,虽然依然不能彻底杜绝这种漏洞,但可以让你找到的漏洞成本指数上升,这样就足够了。事实上在很多关键系统上,哪怕是人也是用类似方式处理的。
另外说到chatgpt的天花板,我今天又看到个例子:
https://www.engraved.blog/building-a-virtual-machine-inside/
【 在 philbloo 的大作中提到: 】
: 失败的例子确实不奇怪 费马小定理要说明白也不是件 trivial 的事
:
: 但是奇怪的地方是 openai 官方网页给的四个例子之一就是费马小定理
: ...................
--
修改:lvsoft FROM 180.158.63.*
FROM 180.158.63.*