我正巧了解这块,人工智能虽说很强,但几乎都可以用数据拟合来综述,他并没有严格的逻辑推断,至少目前看不太像人类儿童的学习方式,更像是人云亦云的傻小子。
不知道你加入的信息,他是永久记住了(即加入后续的模型中),还是只是针对你的回答,进行了模型结果的微调。如果是前者,学习能力更强。
不过,相比语言模型的搜索排序,我们可能更重要的是他是否有人类的推断能力,例如:
1.在大量的错误结论中,发现其中的错误,找到正确的结果,如你告诉他一些错误知识,让他分辨出你在说谎。
2.根据已知的a,b,推出结论c,但保证c在训练数据中确实没有。
以上可以用实验来测试,如果这两项都能通过,就确实可信其有一定的智能,而不是单纯的人工。如此,虽然不能说明人类的智能结构就如chatGPT,但至少能说明这种模式可以实现一定的智能。
人类目前也不知自己的智能是如何而来,也许就是神经网络,量变引起的质变,拥有了智能。
--
修改:xiucaijiang FROM 111.206.145.*
FROM 111.206.145.*