我的理解是 GPT学会了怎么学人说话(格式),但没学会怎么推理
如果它的答案合乎推理,那大概率是网上有类似的题目
稍微依赖推理的新问题,它都会给出个像模像样的错误答卷
以前还瞎编过参考文献
【 在 zuan2zuan 的大作中提到: 】
: 可不是有模有样嘛。它本来就是照猫画虎呀,甭管对不对,样子先摆出来,然后一本正经地胡说八道(当然也可能是正儿八经地说)。你要是指出来它错了,
: 它会虚心认错,然后改正。你以为它是真明白了,真改正了。其实你换一个问法,它可能又要一本正经地胡说八道了。
: 本质上,大语言模型没有理解力,或者说大语言模型不能理解“意思”,只能找到“关系”(或者是最初论文中说的“自注意力”)。
--
FROM 123.114.88.*