- 主题:llm是怎么“解题”的 @粑粑撒 @老图
@babarossa
transformer这种模型为啥能解题,是因为这种题的套路么
t虽然算错了,不过瑕不掩瑜,原理是啥?
--
修改:zhuxiaozhu FROM 183.128.221.*
FROM 49.7.199.*
@老图
【 在 zhuxiaozhu 的大作中提到: 】
: [upload=1][/upload]
: @babarossa
: transformer这种模型为啥能解题
: ...................
--
FROM 49.7.199.*
都有现成的模板啊
【 在 zhuxiaozhu 的大作中提到: 】
: [upload=1][/upload]
: @babarossa
: transformer这种模型为啥能解题,是因为这种题的套路么
: ...................
--
FROM 113.81.1.*
都有现成的数学模型,识别后,待入即可
【 在 zhuxiaozhu 的大作中提到: 】
: [upload=1][/upload]
: @babarossa
: transformer这种模型为啥能解题,是因为这种题的套路么
: ...................
--
FROM 113.81.1.*
transformer 不是搞翻译的么,怎么搞出来这种问答式。是prompt learning还是instruct learning?
【 在 Barbarossa 的大作中提到: 】
: 都有现成的数学模型,识别后,待入即可
--
FROM 49.7.199.*
转换器,ChatGPT表示生成式预训练模型转换器的意思。
【 在 zhuxiaozhu 的大作中提到: 】
: transformer 不是搞翻译的么,怎么搞出来这种问答式。是prompt learning还是instruct learning?
:
--
FROM 113.81.1.*
ChatGPT是一系列基于GPT模型的聊天机器人,其原始的论文是由OpenAI的研究人员发布的。其中最初的一篇论文是 "Improving Language Understanding by Generative Pre-Training",发表于2018年,并在2019年进行了更新。这篇论文介绍了GPT模型的架构和训练方法,以及模型在各种自然语言处理任务上的表现。
另外,关于GPT-2和GPT-3的更高级版本,OpenAI也发布了相应的论文。例如,GPT-2的论文名为 "Language Models are Unsupervised Multitask Learners",发表于2019年。而GPT-3的论文名为 "Language Models are Few-Shot Learners",发表于2020年。这些论文都可以在OpenAI官方网站或学术论文数据库中找到。
大佬仔细读过么
【 在 Barbarossa 的大作中提到: 】
: 转换器,ChatGPT表示生成式预训练模型转换器的意思。
--
FROM 49.7.199.*
现在版本四已经出来了,之前只处理文本。版本五快出来了,迭代很快
【 在 zhuxiaozhu 的大作中提到: 】
: ChatGPT是一系列基于GPT模型的聊天机器人,其原始的论文是由OpenAI的研究人员发布的。其中最初的一篇论文是 "Improving Language Understanding by Generative Pre-Training",发表于2018年,并在2019年进行了更新。这篇论文介绍了GPT模型的架构和训练方法,以及模型在各种自然语言处理任务上的表现。
: 另外,关于GPT-2和GPT-3的更高级版本,OpenAI也发布了相应的论文。例如,GPT-2的论文名为 "Language Models are Unsupervised Multitask Learners",发表于2019年。而GPT-3的论文名为 "Language Models are Few-Shot Learners",发表于2020年。这些论文都可以在OpenAI官方网站或学术论文数据库中找到。
: 大佬仔细读过么
: ...................
--
FROM 113.81.1.*
如果基础框架transformer,那模型最终提炼的是文本的上下文信息了?
【 在 Barbarossa 的大作中提到: 】
: 转换器,ChatGPT表示生成式预训练模型转换器的意思。
--
FROM 49.7.199.*
大佬,现在语音,图像也能处理了
【 在 zhuxiaozhu 的大作中提到: 】
: 如果基础框架transformer,那模型最终提炼的是文本的上下文信息了?
:
--
FROM 113.81.1.*