不是的,这个跟上下文没有什么关系。现在的上下文已经足够做这个事儿了。
这个事情的本质还是注意力。
现在的模型可以轻松的背诵100万的上下文的内容,实现一个字不差。但是你真的把100万的内容喂进去,它会迷失方向的。
【 在 hgoldfish 的大作中提到: 】
: 这太低效了。要问好几个问题才能继续聊?说白了就是 AI 的上下文仍然严重不足。在做每个事情上,我们人类能够根据长期的观察,总结出很多上下文,在聊天时自动调用。
: 不过也可能是 AI 现有的缺陷,随着迭代次数的增加,以后会被修复。。
: 或许这是因为 AI 只学习了些人类的光明一面。还缺少对人类阴暗面的认知吧。
: ...................
--
FROM 116.233.45.*