Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
GitHub上有个仓库做了整理。
https://github.com/Timothyxxx/Chain-of-ThoughtsPapers至于为什么这么做,可以这么简单理解,假如你直接让他写首歌,他只会给你一首歌,如果你提示他是一个音乐家,就相当于这个歌有了过程,就变成,音乐家写的歌。从复杂角度,这种提示为模型在高纬空间提供了一个方向。回到chatgpt,你增加这个,模型会生成更加符合音乐家写的歌,而不是一般普罗大众写的歌,所以看起来效果更好。
是的,如果简单理解就是依据前面的词给出下一个词的概率,依据目前已知的开源的模型,我预估Chatgpt的词表,也就是一共多少词,应当是大于10万的。模型会给出这些词是下一个文本的概率,然后人为对生成的词进行选择,加入原文,再进行生成,直到结束。这种是否是一个跨时代的发现,只能是仁者见仁 智者见智了
【 在 chunhui 的大作中提到: 】
: 论文的关键字是哪个?我找找看。不过我是外行,估计看不太懂这种论文。
: 之所以需要文本提示,就是前面说的,实际上这
:......
论坛助手,iPhone
--
修改:CduVgg FROM 171.116.80.*
FROM 171.116.80.*