我觉得大家对ai的回答一直有个误区,就是老认为ai的回答必须是正确的。
但ai的每一次对话,就跟我们人聊天随口一说一样,都是下意识地直觉反应,并不存在所谓的思考过程。
只要是直觉反应就都有概率,哪怕是很简单的问题也会出错。
举个极端一点的例子,比如1+1=2这样的问题来考验人。大家下意识的感觉应该是任何正常人都不可能答错。但真的如此么?比如现在来个外星人,把地球80亿人叫过来一个个问(简单期间假设80亿人都是认知正常的普通人),但只要有一个人答错地球就会爆炸,大家扪心自问一下,你真的很放心么?有点生活经验的都知道日常能有多少种奇葩的出错姿势,十几个人约个时间聚个会都往往会有弄错时间的。1+1=2这么简单的问题,真的让全人类来过一遍,我觉得完全不出错的概率恐怕是接近于零。
所以人类想要做出足够严谨的回答,是需要不断进行反思,遍历各种可能性,进行深入的思考才行的。ai也是一样,你这个例子其实就是一个完美的示例。ai在第一次回答中就列举了3种可能性,接下来如果让ai自己围绕这3个可能性进一步思考进一步验证,最后就可以得出严谨的回答,这就是现在o1/o3开始在走的路。
【 在 RuralHunter 的大作中提到: 】
: 没错,但这也是最大的问题,就是你得有能力指导它,要不然它可能给个差不多的东西,但不是真的解决方案。我最近的一个例子是我问ai路由器上dnsmasq+ipset,如何能把同一个域名的解析结果放到2个ipset表中,它给了3个方案:
: 一个是在dnsmasq中给同一个域名做2个配置,
: 一个是用脚本定时检查一个ipset表,发现有新的便加到另一个,
: ...................
--
FROM 218.1.145.*