其实有个数学的问题很有意思。就是数学的证明增加了新知识了吗?证明的基础都是已知和公认的公里,被证明的结论的真假其实已经包含在这些公理之中。
【 在 yilongzhen 的大作中提到: 】
: 看来你没做过仿真,做过就不会这么说了,编故事的能力也是后台人设定的代码执行而已,而且一定不会超出人设定的范围,这里范围内,有些是人没有遍历而已。机器永远不会自己超出代码的设定的范围。打个比方,比如,有30个门,人类因为精力有限,只搜查了10道门,可以根据这10道门的特征,程序员写出来让GPT自动搜索剩下的20道门。这20道中,符合前10道门所具备的特征范围内的,机器肯定能完成。但是如果第18道,出现新的特征,比如需要新的工具才能解决,那么机器就不会了,只有人类把这个新的工具解决的代码重新加入进去,那么第18道才能进行下去。很多不知道新工具代码加进去的人看来,GPT好像是创新了,解决新问题了...。但实际根本不是,还是人先设定的。所以GPT可以做人类做不到的事,但是不能做范围之外的事。
: 当然,程序员还可以写代码让GPT更像人类一些,比如还是18道新特征,可以预先用代码写出遇到新特征的话,做模糊判断,如果这个新特征并不影响搜索门的关键条件,就忽略过去继续进行。外人看来,GPT有智能了,但其实这个模糊判断也不过是人类写的代码而已。总之,GPT一定是在人的设定下而已。不会像人一样真的能有完全新的条件下评估和解决问题的能力。你说的编故事的能力就类似我说的模糊判断的代码而已,当然更复杂一些。看起来更像智能罢了,大体是用类似神经网络的方法,用已有数据训练出来的。
--
FROM 222.192.2.*