超长token,需要归纳和演绎能力吧,这个不知道 gpt 有没有,有就牛逼了,码农直接下岗妥妥的
【 在 lvsoft 的大作中提到: 】
: 不是,目前的gpt4上下文空间就4096个token,所以脑容量比较小。
: 如果超过4096个token,有各种奇淫技巧把它切成一段段的喂进去,并利用长期记忆来记住,但效果会差很多。
: gpt4 turbo的上下文空间达到了128K个token,可以一口气读300页文档并记住所有细节,理论上是可以做到这个事情的。
: ...................
--
FROM 222.70.129.*