- 主题:大佬,语言模型回答问题,一个一个的字蹦出来,是后台如此吗?
有的chatGPT是一个字一个字的蹦出来,有的chatGPT不是一个一个的蹦出来。这个效果,是前台做的?还是后台做的?听说后台产生答案的时候,是一个字一个字产生的,这可能吗?肯定不是随机产生的吧?后一个字如何跟前一个字关联?谢谢
--
FROM 120.242.253.*
输出加了延时吧
--
FROM 221.223.180.*
GPT是一个一个Token产生的,产生的Token接到输入(提示词)的后,产生下一个Token。Token对应词向量。其中一种简单的词向量就是以字为单位,但这种效果一般不算好。
--
FROM 125.69.13.*
不一定,很可能是后台
【 在 spritesw 的大作中提到: 】
: 输出加了延时吧
--
FROM 120.242.253.*
sse 了解一下
--
FROM 123.121.132.*
Server-Sent Events
【 在 feng321 的大作中提到: 】
:
: 有的chatGPT是一个字一个字的蹦出来,有的chatGPT不是一个一个的蹦出来。这个效果,是前台做的?还是后台做的?听说后台产生答案的时候,是一个字一个字产生的,这可能吗?肯定不是随机产生的吧?后一个字如何跟前一个字关联?谢谢
#发自zSMTH-v-@HUAWEI CET-AL00
--
FROM 42.227.199.*
码农干的,系统不背这锅
【 在 feng321 的大作中提到: 】
: 有的chatGPT是一个字一个字的蹦出来,有的chatGPT不是一个一个的蹦出来。这个效果,是前台做的?还是后台做的?听说后台产生答案的时候,是一个字一个字产生的,这可能吗?肯定不是随机产生的吧?后一个字如何跟前一个字关联?谢谢
--
FROM 101.240.218.*
算法设计就是这样的,也是gpt走向通用模型的特色
【 在 peibch 的大作中提到: 】
: 码农干的,系统不背这锅
: 【 在 feng321 的大作中提到: 】
: : 有的chatGPT是一个字一个字的蹦出来,有的chatGPT不是一个一个的蹦出来。这个效果,是前台做的?还是后台做的?听说后台产生答案的时候,是一个字一个字产生的,这可能吗?肯定不是随机产生的吧?后一个字如何跟前一个字关联?谢谢
: ...................
--来自微微水木3.5.14
--
FROM 101.88.245.*
sse也没有一次sent一个字啊
【 在 prog2000 的大作中提到: 】
: Server-Sent Events
: #发自zSMTH-v-@HUAWEI CET-AL00
--
FROM 61.170.133.*
你那是网速慢了吧,快的话没有那么一个字一个字的感觉
【 在 feng321 的大作中提到: 】
: 有的chatGPT是一个字一个字的蹦出来,有的chatGPT不是一个一个的蹦出来。这个效果,是前台做的?还是后台做的?听说后台产生答案的时候,是一个字一个字产生的,这可能吗?肯定不是随机产生的吧?后一个字如何跟前一个字关联?谢谢
: --
:
发自「今日水木 on iPhone X」
--
FROM 112.97.63.*