- 主题:今天试了一下chatgpt弄高联数论题目
发现有模有样的,看来我小孩以后基本只能搬砖了。
--
FROM 223.104.38.*
物理解答也不错
【 在 zts 的大作中提到: 】
: 发现有模有样的,看来我小孩以后基本只能搬砖了。
--
FROM 221.220.19.*
哈哈哈,我昨个让它挑了个最差的西瓜,还不错
【 在 zts 的大作中提到: 】
: 发现有模有样的,看来我小孩以后基本只能搬砖了。 ...
--
FROM 222.131.30.*
有了AI,很多培养出来的大学生成了废柴了
【 在 zts 的大作中提到: 】
: 发现有模有样的,看来我小孩以后基本只能搬砖了。
--
FROM 219.142.236.*
有一些题目还不行,我测试过,经常有题目一本正经地乱做,明明是错的,提示了再来还是错的
论坛助手,iPhone
--
FROM 223.104.159.*
框架还行,细节太差。可以给自己提供一些思路,倒是给看卷老师一头雾水。
【 在 navyyang 的大作中提到: 】
: 有一些题目还不行,我测试过,经常有题目一本正经地乱做,明明是错的,提示了再来还是错的
--
FROM 219.237.183.*
可不是有模有样嘛。它本来就是照猫画虎呀,甭管对不对,样子先摆出来,然后一本正经地胡说八道(当然也可能是正儿八经地说)。你要是指出来它错了,
它会虚心认错,然后改正。你以为它是真明白了,真改正了。其实你换一个问法,它可能又要一本正经地胡说八道了。
本质上,大语言模型没有理解力,或者说大语言模型不能理解“意思”,只能找到“关系”(或者是最初论文中说的“自注意力”)。
--
FROM 120.244.22.*
我的理解是 GPT学会了怎么学人说话(格式),但没学会怎么推理
如果它的答案合乎推理,那大概率是网上有类似的题目
稍微依赖推理的新问题,它都会给出个像模像样的错误答卷
以前还瞎编过参考文献
【 在 zuan2zuan 的大作中提到: 】
: 可不是有模有样嘛。它本来就是照猫画虎呀,甭管对不对,样子先摆出来,然后一本正经地胡说八道(当然也可能是正儿八经地说)。你要是指出来它错了,
: 它会虚心认错,然后改正。你以为它是真明白了,真改正了。其实你换一个问法,它可能又要一本正经地胡说八道了。
: 本质上,大语言模型没有理解力,或者说大语言模型不能理解“意思”,只能找到“关系”(或者是最初论文中说的“自注意力”)。
--
FROM 123.114.88.*
同感。曾经问过一道比较简单的数论题,中间一步真是一本正经的胡说八道了。最后又一本正经的给圆回来了。
感觉这种推理性的题目,如果不是原题,目前的AI很难解决。
【 在 navyyang 的大作中提到: 】
: 有一些题目还不行,我测试过,经常有题目一本正经地乱做,明明是错的,提示了再来还是错的
: 论坛助手,iPhone
--
FROM 111.193.233.*
所以我觉得这次的GPT AI,感觉有效的使用范围其实有限
千万别用它来教孩子学数理化,中间错误太多了
据说用来教英语不错,具体没细研究
【 在 SlO 的大作中提到: 】
: 同感。曾经问过一道比较简单的数论题,中间一步真是一本正经的胡说八道了。最后又一本正经的给圆回来了。
: 感觉这种推理性的题目,如果不是原题,目前的AI很难解决。
--
FROM 123.114.88.*