按照openAI自己的说法,gpt-4-32k 模型支持32,768 tokens,也就是大约24000个单词,如果一行代码10个单词的话,这也有两三千行代码了
https://platform.openai.com/docs/models/overview
不过这离大型程序的规模还差得远,塞给它个linux kernel是不可能的
而且和人不一样的是,GPT的提示和答案共享这个token的限制,也就是输入的提示越多(比如让它读的代码越多),它的输出的长度上限就越小,我不太理解这个限制,但是这是openai自己说的:
https://help.openai.com/en/articles/4936856-what-are-tokens-and-how-to-count-them
Depending on the model used, requests can use up to 4097 tokens shared between prompt and completion. If your prompt is 4000 tokens, your completion can be 97 tokens at most.
【 在 mygodxp 的大作中提到: 】
: 大型不行,小的还可以,有些错误,但确实提高了不少效率
:
--
FROM 113.120.108.*