- 主题:用prompt调教的模型,生效范围是什么区间?
token长度限制之内啊。prompt又不会修改模型参数。
【 在 wjhtingerx 的大作中提到: 】
: rt
:
--
FROM 220.243.154.*
不是“那次回复”,是那次聊天。一次聊天可以有多次交互啊
你要理解prompt的本质,本质就是把你的prompt内容和提问的内容一起,灌给了encoder而已。
你下一次聊天,肯定不会带着前一次聊天的内容一起,那么自然就不会有效果了
【 在 wjhtingerx 的大作中提到: 】
: 就是只是那次回复才有效?后面的提问就没效果了吗?
:
--
修改:Xjt FROM 220.243.154.*
FROM 220.243.154.*
这是ChatGPT自己开发的功能啊,一次聊天里的所有内容都会一起灌给GPT用来输出回答,这样才让你有了GPT有上下文记忆的错觉
【 在 wjhtingerx 的大作中提到: 】
: 那“一次”聊天怎么界定的?
:
--
FROM 220.243.154.*
你想多了……内容增加效果会越来越差,所以才有对话次数和token长度的限制
【 在 wjhtingerx 的大作中提到: 】
: 意思是我一直聊一直聊,那岂不是堆积了海量内容,难道每次都要一起堆进去?
:
--
FROM 101.80.249.*
中文的token是汉字,英文的token是词根
【 在 wjhtingerx 的大作中提到: 】
: 哦,是有对话次数的,我想的就是这个。但我一直没理解了token是个什么概念,跟文字不是一一对应的吧
:
--
FROM 220.243.154.*