醍醐灌顶
【 在 liangf 的大作中提到: 】
: transformer不是变形金刚吗
: 【 在 Barbarossa 的大作中提到: 】
: : 你居然不知道gpt,它是生成式预训练转换器,generative pre-trained transformer。
: : 大意是把输入文本转换为词元token, 词元转换为词向量。词向量要通过大语言模型预训练来确定它的数值,开始都是随机数字。模型用一种核心技术叫自注意机制加前馈神经网络来训练,训练
: : ..................
: --
--发自 ismth(丝滑版)
--
FROM 175.6.34.*