- 主题:基金委能用GPT评审本子吗?
GPT学习的结果就是有帽子的要给。
【 在 GABA 的大作中提到: 】
: 这样应该公平多了吧
--
FROM 222.192.2.*
其实现在AI擅长的就是这些。而且从实际的情况来看,真有创新的本子在评审中很容易被否掉,大家写本子都趋向平稳。而且判断能不能完成绝大部分评审人也是基于研究基础。所以GPT可能能取代99%的评审人。排除人际关系的影响,真正评审的结果可能的人是一样的。
【 在 yilongzhen 的大作中提到: 】
: 反正,我觉得不行,
: GPT我们都知道,已有的概念,想法,知识等做样本训练,应该可以,
: 但是科研本子中创新是有要求的,所以有一部分本子中(占比肯定比其它行业高很多)是新概念,或者新知识点,新设想等等。专家是可以根据自己的经验来判断一下这些新的东西怎么样。GPT知识库里没有,无法判断是否有意义,是否好想法,是否能完成吧?
: ...................
--
FROM 222.192.2.*
其实有个数学的问题很有意思。就是数学的证明增加了新知识了吗?证明的基础都是已知和公认的公里,被证明的结论的真假其实已经包含在这些公理之中。
【 在 yilongzhen 的大作中提到: 】
: 看来你没做过仿真,做过就不会这么说了,编故事的能力也是后台人设定的代码执行而已,而且一定不会超出人设定的范围,这里范围内,有些是人没有遍历而已。机器永远不会自己超出代码的设定的范围。打个比方,比如,有30个门,人类因为精力有限,只搜查了10道门,可以根据这10道门的特征,程序员写出来让GPT自动搜索剩下的20道门。这20道中,符合前10道门所具备的特征范围内的,机器肯定能完成。但是如果第18道,出现新的特征,比如需要新的工具才能解决,那么机器就不会了,只有人类把这个新的工具解决的代码重新加入进去,那么第18道才能进行下去。很多不知道新工具代码加进去的人看来,GPT好像是创新了,解决新问题了...。但实际根本不是,还是人先设定的。所以GPT可以做人类做不到的事,但是不能做范围之外的事。
: 当然,程序员还可以写代码让GPT更像人类一些,比如还是18道新特征,可以预先用代码写出遇到新特征的话,做模糊判断,如果这个新特征并不影响搜索门的关键条件,就忽略过去继续进行。外人看来,GPT有智能了,但其实这个模糊判断也不过是人类写的代码而已。总之,GPT一定是在人的设定下而已。不会像人一样真的能有完全新的条件下评估和解决问题的能力。你说的编故事的能力就类似我说的模糊判断的代码而已,当然更复杂一些。看起来更像智能罢了,大体是用类似神经网络的方法,用已有数据训练出来的。
--
FROM 222.192.2.*
我觉得随机性这一点挺吓人,搞不好真会出自主意识。
【 在 anchuner 的大作中提到: 】
:
: 你这就说的不对了,编故事哪里是代码执行的?你每次问他结果都不一样。
: 这种大型网络节点参数的时候都会加点随机性,以便更泛化。你了解深度学习的话不难理解这点。
--
FROM 121.229.162.*