都是常识性的错误,需要专业一点的知识判断,然后追问,才会更正错误。特别麻烦,或者说特别可恶。
我遇到的例子如下:
1:中文里的脑膜瘤和日语里的髓膜瘤是不是一个意思:它首先回答:完全不同。但是下面的详细解释说二者是一个意思。就这种你都不能说是常识错误,简直就是白痴。
2:问成田机场T3,吉野家在几楼?回答:地下1层,美食广场,同时建议到机场看路牌,问工作人员。地下1层没找到,追问,它说在1楼。很明显1楼没有,再追问,他还说在1楼,告诉它1楼没有,它就又改口了,说在2楼。完全就是瞎编。我问它为什么会出错,他说机场T2T3都有,它弄混了。但是我都提前告诉它T3了。然后它又说什么吉野家经常在美食广场,美食广场经常在地下1楼,这种关联性导致了它的回答。
不止一次了,问它为什么会错,它回答:它的搜索结果来自训练集,但是训练集里如果一个结果和问题相关性很大,它就认为这个结果就是问题的答案。
3:询问腾楼A034镜头参数,很简单对吧?它好不犹豫告诉你这是个70-200 2.8的镜头。无论反复询问多少次,都是这个结果,甚至你告诉它错了,它也不改。最后你告诉它这是个70-210,f4的镜头,它才会修改答案。我问他为什么,它说70-200 2.8更知名,网上讨论更多,70-210 f4比较小众,有时候被网友误认为是a034,当a034和70-200 2.8这两个数字同时出现的频率高的时候,模型会在二者之间建立很强的相关,从而得出最可能的答案。一旦相关被建立了,没有新的训练集的情况下,它无论怎么查询,都不会更改这个顽固的错误。
总体感觉就是,不能全部相信它,需要自己有一点知识做判断。
但是,这ai就没什么用了啊。
--
FROM 112.102.36.*