- 主题:deepseek最近年前更新后,总是出现常识性错误
都是常识性的错误,需要专业一点的知识判断,然后追问,才会更正错误。特别麻烦,或者说特别可恶。
我遇到的例子如下:
1:中文里的脑膜瘤和日语里的髓膜瘤是不是一个意思:它首先回答:完全不同。但是下面的详细解释说二者是一个意思。就这种你都不能说是常识错误,简直就是白痴。
2:问成田机场T3,吉野家在几楼?回答:地下1层,美食广场,同时建议到机场看路牌,问工作人员。地下1层没找到,追问,它说在1楼。很明显1楼没有,再追问,他还说在1楼,告诉它1楼没有,它就又改口了,说在2楼。完全就是瞎编。我问它为什么会出错,他说机场T2T3都有,它弄混了。但是我都提前告诉它T3了。然后它又说什么吉野家经常在美食广场,美食广场经常在地下1楼,这种关联性导致了它的回答。
不止一次了,问它为什么会错,它回答:它的搜索结果来自训练集,但是训练集里如果一个结果和问题相关性很大,它就认为这个结果就是问题的答案。
3:询问腾楼A034镜头参数,很简单对吧?它好不犹豫告诉你这是个70-200 2.8的镜头。无论反复询问多少次,都是这个结果,甚至你告诉它错了,它也不改。最后你告诉它这是个70-210,f4的镜头,它才会修改答案。我问他为什么,它说70-200 2.8更知名,网上讨论更多,70-210 f4比较小众,有时候被网友误认为是a034,当a034和70-200 2.8这两个数字同时出现的频率高的时候,模型会在二者之间建立很强的相关,从而得出最可能的答案。一旦相关被建立了,没有新的训练集的情况下,它无论怎么查询,都不会更改这个顽固的错误。
总体感觉就是,不能全部相信它,需要自己有一点知识做判断。
但是,这ai就没什么用了啊。
--
FROM 112.102.36.*
不懂ai,话说训练数据都是经过人工审核保证正确的么?如果是网上来的,那以后会不会出现ai乱编数据发网上,再从网上拿错误数据训练?
【 在 sengseng 的大作中提到: 】
: 都是常识性的错误,需要专业一点的知识判断,然后追问,才会更正错误。特别麻烦,或者说特别可恶。
: 我遇到的例子如下:
: 1:中文里的脑膜瘤和日语里的髓膜瘤是不是一个意思:它首先回答:完全不同。但是下面的详细解释说二者是一个意思。就这种你都不能说是常识错误,简直就是白痴。
: 2:问成田机场T3,吉野家在几楼?回答:地下1层,美食广场,同时建议到机场看路牌,问工作人员。地下1层没找到,追问,它说在1楼。很明显1楼没有,再追问,他还说在1楼,告诉它1楼没有,它就又改口了,说在2楼。完全就是瞎编。我问它为什么会出错,他说机场T2T3都有,它弄混了。但是我都提前告诉它T3了。然后它又说什么吉野家经常在美食广场,美食广场经常在地下1楼,这种关联性导致了它的回答。
: 不止一次了,问它为什么会错,它回答:它的搜索结果来自训练集,但是训练集里如果一个结果和问题相关性很大,它就认为这个结果就是问题的答案。
: 3:询问腾楼A034镜头参数,很简单对吧?它好不犹豫告诉你这是个70-200 2.8的镜头。无论反复询问多少次,都是这个结果,甚至你告诉它错了,它也不改。最后你告诉它这是个70-210,f4的镜头,它才会修改答案。我问他为什么,它说70-200 2.8更知名,网上讨论更多,70-210 f4比较小众,有时候被网友误认为是a034,当a034和70-200 2.8这两个数字同时出现的频率高的时候,模型会在二者之间建立很强的相关,从而得出最可能的答案。一旦相关被建立了,没有新的训练集的情况下,它无论怎么查询,都不会更改这个顽固的错误。
--发自 ismth(丝滑版)
--
FROM 114.249.61.*
肯定不保证正确,都错了这么多了。这几个错误,给我的感觉就是:ai不是在帮我们找正确答案,它不是智能的。它是个快速的、有总结能力的计算机。但是,不知为不知这一点,它做的非常不好,不知道它也会给出一个它认为相关联的结果。
【 在 frankyang926 的大作中提到: 】
: 不懂ai,话说训练数据都是经过人工审核保证正确的么?如果是网上来的,那以后会不会出现ai乱编数据发网上,再从网上拿错误数据训练?
:
: 【 在 sengseng 的大作中提到: 】
: : 都是常识性的错误,需要专业一点的知识判断,然后追问,才会更正错误。特别麻烦,或者说特别可恶。
: : 我遇到的例子如下:
: : 1:中文里的脑膜瘤和日语里的髓膜瘤是不是一个意思:它首先回答:完全不同。但是下面的详细解释说二者是一个意思。就这种你都不能说是常识错误,简直就是白痴。
--发自 ismth(丝滑版)
--
FROM 112.102.36.*
我一直觉得现在的ai只是在理解问题上有了很大进步,对于问题的解答更像是把网页搜索的众多结果页聚合整合为一条
【 在 sengseng 的大作中提到: 】
: 肯定不保证正确,都错了这么多了。这几个错误,给我的感觉就是:ai不是在帮我们找正确答案,它不是智能的。它是个快速的、有总结能力的计算机。但是,不知为不知这一点,它做的非常不好,不知道它也会给出一个它认为相关联的结果。
:
: 【 在 frankyang926 的大作中提到: 】
: : 不懂ai,话说训练数据都是经过人工审核保证正确的么?如果是网上来的,那以后会不会出现ai乱编数据发网上,再从网上拿错误数据训练?
: :
: : 【 在 sengseng 的大作中提到: 】
--发自 ismth(丝滑版)
--
FROM 114.249.61.*
是有很多错误。作为一个辅助工具谨慎使用。
【 在 sengseng 的大作中提到: 】
: 都是常识性的错误,需要专业一点的知识判断,然后追问,才会更正错误。特别麻烦,或者说特别可恶。
: 我遇到的例子如下:
: 1:中文里的脑膜瘤和日语里的髓膜瘤是不是一个意思:它首先回答:完全不同。但是下面的详细解释说二者是一个意思。就这种你都不能说是常识错误,简直就是白痴。
: 2:问成田
: ..................
发自「今日水木 on iPhone 14 Pro」
--
FROM 221.217.25.*
技术领域的正确答案,来自大众还是专家?
在专家不教育大模型时,大模型有先天而来的正确答案么?
你想清楚,就理解了。
【 在 sengseng 的大作中提到: 】
: 肯定不保证正确,都错了这么多了。这几个错误,给我的感觉就是:ai不是在帮我们找正确答案,它不是智能的。它是个快速的、有总结能力的计算机。但是,不知为不知这一点,它做的非常不好,不知道它也会给出一个它认为相关联的结果。
: --发自 ismth(丝滑版)
--
FROM 219.142.85.*
感觉很对,ai做到这一步就相当不错了,也可以使用了
【 在 frankyang926 的大作中提到: 】
: 我一直觉得现在的ai只是在理解问题上有了很大进步,对于问题的解答更像是把网页搜索的众多结果页聚合整合为一条
:
: 【 在 sengseng 的大作中提到: 】
: : 肯定不保证正确,都错了这么多了。这几个错误,给我的感觉就是:ai不是在帮我们找正确答案,它不是智能的。它是个快速的、有总结能力的计算机。但是,不知为不知这一点,它做的非常不好,不知道它也会给出一个它认为相关联的结果。
: :
: : 【 在 frankyang926 的大作中提到: 】
--发自 ismth(丝滑版)
--
FROM 111.199.191.*
大模型的强项不在这里,另外ds现在是最差的模型了吧
【 在 sengseng (sengseng) 的大作中提到: 】
: 都是常识性的错误,需要专业一点的知识判断,然后追问,才会更正错误。特别麻烦,或者说特别可恶。
: 我遇到的例子如下:
: 1:中文里的脑膜瘤和日语里的髓膜瘤是不是一个意思:它首先回答:完全不同。但是下面的详细解释说二者是一个意思。就这种你都不能说是常识错误,简直就是白痴。
: 2:问成田机场T3,吉野家在几楼?回答:地下1层,美食广场,同时建议到机场看路牌,问工作人员。地下1层没找到,追问,它说在1楼。很明显1楼没有,再追问,他还说在1楼,告诉它1楼没有,它就又改口了,说在2楼。完全就是瞎编。我问它为什么会出错,他说机场T2T3都有,它弄混了。但是我都提前告诉它T3了。然后它又说什么吉野家经常在美食广场,美食广场经常在地下1楼,这种关联性导致了它的回答。
--
FROM 117.133.82.*
和你用的大模型的具体参数规模有关
我试了一下gemini,答案都正确啊
--
FROM 31.126.7.*
今天又查了一个问题,hankeH80002行李箱。它回答:这款很畅销,它是铝框箱......
我继续问确定是铝框吗?它回答,它要纠正它的误导。这是斜纹拉链箱,不是铝框箱.....
我问你为什么会错?它回答:它的学习数据里,hanke这个品牌,大量的语料和测评都是铝框箱,特别是像H80002这种很像产品型号的代码,潜意识里把它和经典铝框箱关联起来了,就好像提到某coke,默认就觉得是可乐一样。它还说:它过度依赖关联而不是验证,以后遇到类似问题,它会更谨慎区分品牌共性和型号特性。
出错都是那么有理有据。我个人感觉和参数规模没关系,就是算法真的有问题。它认关联性的,但是大家都知道,其实关联性是非常容易出错的。也不知道他们是怎么想的。
【 在 zdh 的大作中提到: 】
: 和你用的大模型的具体参数规模有关
: 我试了一下gemini,答案都正确啊
--
FROM 112.102.36.*