这太低效了。要问好几个问题才能继续聊?说白了就是 AI 的上下文仍然严重不足。在做每个事情上,我们人类能够根据长期的观察,总结出很多上下文,在聊天时自动调用。
不过也可能是 AI 现有的缺陷,随着迭代次数的增加,以后会被修复。。
或许这是因为 AI 只学习了些人类的光明一面。还缺少对人类阴暗面的认知吧。
【 在 weiwallz 的大作中提到: 】
: 你体会一下现在的gpt5.4或者opus 4.6,如果你的信息不足,它现在可能会主动问你,让你澄清的
: 说白了,这也是训练出来的行为,训练时有这样的内容不全,要模型输出提问的样本,那模型就能学会这种交流方式
: --发自 ismth(丝滑版)
: ...................
--
FROM 121.207.53.*