这和上下文没关系,纯粹是使用者提供的信息不足、不够精确,所以AI才会追问,这个是没问题的,就算是人与人之间沟通也要信息对齐了才好合作,不然就容易出现你希望造个房子,AI在信息不足的前提下脑补造了个酒店的情况
【 在 hgoldfish 的大作中提到: 】
: 这太低效了。要问好几个问题才能继续聊?说白了就是 AI 的上下文仍然严重不足。在做每个事情上,我们人类能够根据长期的观察,总结出很多上下文,在聊天时自动调用。
: 不过也可能是 AI 现有的缺陷,随着迭代次数的增加,以后会被修复。。
: 或许这是因为 AI 只学习了些人类的光明一面。还缺少对人类阴暗面的认知吧。
: ...................
--
FROM 115.150.224.*