- 主题:今天试了一下chatgpt弄高联数论题目
我的理解是 GPT学会了怎么学人说话(格式),但没学会怎么推理
如果它的答案合乎推理,那大概率是网上有类似的题目
稍微依赖推理的新问题,它都会给出个像模像样的错误答卷
以前还瞎编过参考文献
【 在 zuan2zuan 的大作中提到: 】
: 可不是有模有样嘛。它本来就是照猫画虎呀,甭管对不对,样子先摆出来,然后一本正经地胡说八道(当然也可能是正儿八经地说)。你要是指出来它错了,
: 它会虚心认错,然后改正。你以为它是真明白了,真改正了。其实你换一个问法,它可能又要一本正经地胡说八道了。
: 本质上,大语言模型没有理解力,或者说大语言模型不能理解“意思”,只能找到“关系”(或者是最初论文中说的“自注意力”)。
--
FROM 123.114.88.*
所以我觉得这次的GPT AI,感觉有效的使用范围其实有限
千万别用它来教孩子学数理化,中间错误太多了
据说用来教英语不错,具体没细研究
【 在 SlO 的大作中提到: 】
: 同感。曾经问过一道比较简单的数论题,中间一步真是一本正经的胡说八道了。最后又一本正经的给圆回来了。
: 感觉这种推理性的题目,如果不是原题,目前的AI很难解决。
--
FROM 123.114.88.*
en,这说明逻辑推理比纯玩文字还是复杂点
【 在 SlO 的大作中提到: 】
: 文科题目还可以。写命题作文,要求用几个典故、几句诗词,甚至可以指定某人的典故诗词,写的都非常好。写车轱辘话更是想写多少写多少。
--
FROM 123.114.88.*