一个问题是,现在的这些大模型有推理能力吗?
感觉是训练用了多少数据,就有多少能力,没训练过的,也就不会。不知道我理解的对不对。
再一个,输入新的资料进行再次训练,这也就是所谓的微调吧,这个会导致模型里的已有的知识的丢失或模糊化或者叫做遗忘吗?
现在这个感觉像是学了不少超出他理解的知识的小学生,问啥学过的,能答。模糊点的,能连猜带蒙的答。但是感觉离理性逻辑推理还有距离,也许其实它根本不会推理。而且感觉有个最严重的问题就是,它其实不知道自己知不知道,这是不是就是所谓大模型幻觉。
--
FROM 123.112.66.*