1.训练的意义就是让模型能够胜任没有见过的数据的推理,也就是所谓的泛化generalize 。如果仅仅是对原有数据能够预测,而不能在新数据上做预测的话,这个基本就是overfit了
2. 微调一般是指对已经预训练过的通用模型进一步进行专业数据的小规模训练,一般不会造成原有信息丢失。但如果直接大规模调整原有通用模型的话,是肯定会导致原油知识丧失的
【 在 dukenuke (回车) 的大作中提到: 】
: 一个问题是,现在的这些大模型有推理能力吗?
: 感觉是训练用了多少数据,就有多少能力,没训练过的,也就不会。不知道我理解的对不对。
: 再一个,输入新的资料进行再次训练,这也就是所谓的微调吧,这个会导致模型里的已有的知识的丢失或模糊化或者叫做遗忘吗?
:
--
FROM 117.143.100.*