你提到“可能网上有人发文说B和A相邻”(虽然二者完全不相邻),导致AI出错,这可能也是之前暴露的给AI投毒产业链的运作原理
但我对此也是有些困惑:即使从语料来分析,应该也是可以知道A和B不相邻的。就是说大模型从网络抓数据学习的时候,应该是对的错的资料都有的,那么按理错误的资料不多,怎么
就学到了错误的结果?比如有个人乱说A和B相邻,但是可能另一些资料会说A的南边是D,D的南边是B,二者隔了一个D区呢,那这不是矛盾了么?
如果有世界模型,那么这种矛盾可能很容易识别;
如果没有世界模型,似乎可以理解AI无法识别这个矛盾,他可能把两个都当做结论融入了自己的网络,所以最后应用模型做推断时,可能就看运气了。
所以如果搞世界模型,是不是可以这样:让大模型自己寻找自己推论的矛盾之处,然后修正
使自洽?如果有一天没有这种矛盾了,其实是不是就相当于其内部有了世界模型?虽然这个
世界模型的表述架构和人类完全不同,我们无法理解
【 在 reaphone 的大作中提到: 】
: 标 题: Re: 请教下:AI的这种错误是怎么发生的?
: 发信站: 水木社区 (Wed Apr 15 15:15:45 2026), 站内
:
: 特别简单啊,之前网上有人说过B与A隔条河紧邻。
: 或者有人说过B紧邻某河,A也紧邻该河。
: 大模型搜索到了上面这些语料,按语料进行了融合和(错误的)推理,然后给你结论了。
:
: 你补充的“A和B隔了几十公里”作为上下文后来也提供给大模型,它把这个上下文的权重设高,认为你说的是真理,认了错。其实你后来就算提示它说B小区是在月亮上,你是B小区的住户,它也会认的。
:
: 大模型只会基于已有语料进行融合和推理。它脑子里没有A区地图这种世界模型。所以错得很正常。
:
: 【 在 ForSolitude 的大作中提到: 】
: : 标 题: 请教下:AI的这种错误是怎么发生的?
: : 发信站: 水木社区 (Wed Apr 15 12:39:07 2026), 站内
: :
: : 我网上看到一个地点的照片,大致知道在哪个区(记为A),但是想知道具体位置。
: : 于是我把图片发给AI,提醒他在A区,提醒他根据背景建筑物来判断。
: : 然后AI给出了分析,正确分析了建筑物特征,说是A区某地;正确说出了那个建筑物和拍照地点的相对方位关系;然后推测拍照是在某小区(记为B)。
: : 我上网查了下,B小区在隔着至少20公里之外的另一个行政区C呢。
: : 于是补充提问:你说的B小区是位于C区,不在A区,请修正分析。
: : AI回答说:这是正常的,A和C其实就隔一条河,所以从C的楼房看出去,是可以看到A的。
: : 我晕倒,再次提醒:A和C隔了几十公里呢。
: : 这次AI回复说:是的,我错得很严重……
: : ------
: : 想问下,AI在接到这个问题时,大致是怎样的背后运作?
: : 感觉任务逻辑是对的,图片分析也是没问题的,但是关联具体地点时,这个是错得?虽然说就是个大模型,黑箱,但大模型也是数据喂出来的,他的推理过程中,说图片里的那个建筑
: : 特征是D,D确实在A区,也正确的说除拍摄方位,这个拍摄点和背景距离也不远,怎么会判断自己位置在几十公里之外的另一个地方呢?感觉难的地方都完成了,怎么在容易的哪一步
: : 错这么严重?
: :
: : --
: : 失败不是我的追求,寂寞才是。
: :
: :
: : ※ 来源:·水木社区 mysmth.net·[FROM: 125.118.49.*]
:
: --
:
: ※ 来源:·水木社区 mysmth.net·[FROM: 219.142.85.*]
--
修改:ForSolitude FROM 125.118.49.*
FROM 125.118.49.*