- 主题:llm是怎么“解题”的 @粑粑撒 @老图
都有现成的模板啊
【 在 zhuxiaozhu 的大作中提到: 】
: [upload=1][/upload]
: @babarossa
: transformer这种模型为啥能解题,是因为这种题的套路么
: ...................
--
FROM 113.81.1.*
都有现成的数学模型,识别后,待入即可
【 在 zhuxiaozhu 的大作中提到: 】
: [upload=1][/upload]
: @babarossa
: transformer这种模型为啥能解题,是因为这种题的套路么
: ...................
--
FROM 113.81.1.*
转换器,ChatGPT表示生成式预训练模型转换器的意思。
【 在 zhuxiaozhu 的大作中提到: 】
: transformer 不是搞翻译的么,怎么搞出来这种问答式。是prompt learning还是instruct learning?
:
--
FROM 113.81.1.*
现在版本四已经出来了,之前只处理文本。版本五快出来了,迭代很快
【 在 zhuxiaozhu 的大作中提到: 】
: ChatGPT是一系列基于GPT模型的聊天机器人,其原始的论文是由OpenAI的研究人员发布的。其中最初的一篇论文是 "Improving Language Understanding by Generative Pre-Training",发表于2018年,并在2019年进行了更新。这篇论文介绍了GPT模型的架构和训练方法,以及模型在各种自然语言处理任务上的表现。
: 另外,关于GPT-2和GPT-3的更高级版本,OpenAI也发布了相应的论文。例如,GPT-2的论文名为 "Language Models are Unsupervised Multitask Learners",发表于2019年。而GPT-3的论文名为 "Language Models are Few-Shot Learners",发表于2020年。这些论文都可以在OpenAI官方网站或学术论文数据库中找到。
: 大佬仔细读过么
: ...................
--
FROM 113.81.1.*
大佬,现在语音,图像也能处理了
【 在 zhuxiaozhu 的大作中提到: 】
: 如果基础框架transformer,那模型最终提炼的是文本的上下文信息了?
:
--
FROM 113.81.1.*
目前输入文本,输出图像
【 在 zhuxiaozhu 的大作中提到: 】
: 输入还是输出?
: 如果是输入,那就是信息的表达形式变了,模型提炼的可能还是上下文的表达
: 如果是输出,可能和gan更相关,midjourney那一卦的
: ...................
--
FROM 113.81.1.*
革命性的东西,是当代互联网,手机一般划时代的大事
【 在 zhuxiaozhu 的大作中提到: 】
: Q:详细解释一下transformer decoder 中的2个self-attention的区别
: A: 在Transformer Decoder中,有两个Self-Attention,分别称为Multi-Head Self-Attention和Encoder-Decoder Self-Attention。它们之间的区别在于它们计算注意力的方式不同,并且处理的输入也不同。
: Multi-Head Self-Attention
: ...................
--
FROM 113.81.1.*