- 主题:用prompt调教的模型,生效范围是什么区间?
rt
--
FROM 117.107.135.*
token长度限制之内啊。prompt又不会修改模型参数。
【 在 wjhtingerx 的大作中提到: 】
: rt
:
--
FROM 220.243.154.*
就是只是那次回复才有效?后面的提问就没效果了吗?
【 在 Xjt 的大作中提到: 】
: token长度限制之内啊。prompt又不会修改模型参数。
--
FROM 117.107.135.*
不是“那次回复”,是那次聊天。一次聊天可以有多次交互啊
你要理解prompt的本质,本质就是把你的prompt内容和提问的内容一起,灌给了encoder而已。
你下一次聊天,肯定不会带着前一次聊天的内容一起,那么自然就不会有效果了
【 在 wjhtingerx 的大作中提到: 】
: 就是只是那次回复才有效?后面的提问就没效果了吗?
:
--
修改:Xjt FROM 220.243.154.*
FROM 220.243.154.*
那“一次”聊天怎么界定的?
【 在 Xjt 的大作中提到: 】
: 不是“那次回复”,是那次聊天。一次聊天可以有多次交互啊
: 你要理解prompt的本质,本质就是把你的prompt内容和提问的内容一起,灌给了encoder而已。
: 你下一次聊天,肯定不会带着前一次聊天的内容一起,那么自然就不会有效果了
--
FROM 117.107.135.*
这是ChatGPT自己开发的功能啊,一次聊天里的所有内容都会一起灌给GPT用来输出回答,这样才让你有了GPT有上下文记忆的错觉
【 在 wjhtingerx 的大作中提到: 】
: 那“一次”聊天怎么界定的?
:
--
FROM 220.243.154.*
意思是我一直聊一直聊,那岂不是堆积了海量内容,难道每次都要一起堆进去?
【 在 Xjt 的大作中提到: 】
: 这是ChatGPT自己开发的功能啊,一次聊天里的所有内容都会一起灌给GPT用来输出回答,这样才让你有了GPT有上下文记忆的错觉
--
FROM 144.168.59.*
你想多了……内容增加效果会越来越差,所以才有对话次数和token长度的限制
【 在 wjhtingerx 的大作中提到: 】
: 意思是我一直聊一直聊,那岂不是堆积了海量内容,难道每次都要一起堆进去?
:
--
FROM 101.80.249.*
哦,是有对话次数的,我想的就是这个。但我一直没理解了token是个什么概念,跟文字不是一一对应的吧
【 在 Xjt 的大作中提到: 】
: 你想多了……内容增加效果会越来越差,所以才有对话次数和token长度的限制
: :
--
FROM 120.245.118.*
不是,近乎
【 在 wjhtingerx 的大作中提到: 】
: 哦,是有对话次数的,我想的就是这个。但我一直没理解了token是个什么概念,跟文字不是一一对应的吧
:
--
FROM 114.254.0.*