不是,目前的gpt4上下文空间就4096个token,所以脑容量比较小。
如果超过4096个token,有各种奇淫技巧把它切成一段段的喂进去,并利用长期记忆来记住,但效果会差很多。
gpt4 turbo的上下文空间达到了128K个token,可以一口气读300页文档并记住所有细节,理论上是可以做到这个事情的。
但我前面说了,超长token本身也是有很多挑战的,我还没用过gpt4 turbo,不知道它的超长token能力是否靠谱。
【 在 ztysys 的大作中提到: 】
: 构架上的优化,一小段一小段的优化意义不大
: 简单看起来,好像 gpt 没有分析一堆文件,再组合解决的能力,这将很大程度影响应用场景了
: 或许以后 gpt 能一个文件一个文件读,然后自己穿起来分析。只要算力够,应该也能行吧,可以出一个专门写大规模代码的版本,那程序员就真要失业了
: ...................
--
修改:lvsoft FROM 180.102.34.*
FROM 180.102.34.*