- 主题:看到一些ChatGPT的有点意思的例子...
但是关于费马小定理的那段完全是瞎扯
【 在 lvsoft 的大作中提到: 】
: 懂得自然懂,就不多解释了...
:

: [upload=2][/upload]
: ...................
[upload=1][/upload]
--
FROM 188.67.137.*
失败的例子确实不奇怪 费马小定理要说明白也不是件 trivial 的事
但是奇怪的地方是 openai 官方网页给的四个例子之一就是费马小定理
照理来说 showcase 应该是展现其能力而不是其缺陷的地方吧
https://openai.com/blog/chatgpt/
【 在 lvsoft 的大作中提到: 】
: 不用费马小定理吧...我也看过不少失败案例,有个例子是给他两个数字让它判断大小,非常简单的问题,一个10位数一个7位数。 ...
--
FROM 188.67.137.*
我试了一下,感觉它挺适合一本正经的闲聊,但没法做任何 rigorous 的事情,因为它不仅不能演绎,甚至不能理解一阶逻辑。下面是 2 个例子:
me: Let's assume that the Sun is either cold or white, and the Sun is white only if it is black. Now if we find the Sun is not cold, can we conclude that the Sun is black?
bot: No, we cannot conclude that the Sun is black. We can only conclude that the Sun is not cold. We cannot draw any other conclusions based on the information given.
me: If an element, a, either belongs to a set X, or another set Y, and two elements a, b equals to each other only if they both belong to same set. Now if x belongs to Y and x = y, can we conclude that y does not belong to X?
bot: No, because it is not possible to conclude anything about y based on the given information.
另外我发现一个有趣的事实:它把 Cauchy's Theorem 和 Cayley's Theorem 弄混了,而我也犯过这个错误。
【 在 lvsoft 的大作中提到: 】
: 这没啥奇怪的吧,openai觉得这个例子能说明chatgpt达到的高度,然后有人找到了漏洞而已。
: 最近连ai围棋都被人找到漏洞了,我觉得接下来很长一段时间内这都会是个经常发生的现象。
: 就是任何ai拿出来,你都有可能找到一个非常trivial的例子,让ai发生对普通人来说都不可能发生的难以理解的失效。
: ...................
--
FROM 188.67.137.*
并且它一本正经对现有知识的复述也是荒谬的,比如:
How Euler's theorem plays in RSA cryptography system?
Euler's theorem is used in RSA cryptography to calculate the private key from the public key. Specifically, it is used to calculate the decryption exponent d, which is used in the RSA decryption algorithm. This is done by finding the multiplicative inverse of the encryption exponent e modulo the totient of n. Euler's theorem states that if a and n are relatively prime, then a^φ(n) ≡ 1 mod n, where φ(n) is the totient of n. Therefore, the multiplicative inverse of a modulo n can be found by calculating a^(φ(n) -1) mod n, which is the same as d.
这说明它说的任何话都不可信,也就是说这个系统不是 sound 的。
这东西完全不能通过图灵测试。
--
FROM 188.67.137.*
既然没有推理演绎的能力,那它给你指出的 mutex 使用建议,或者给你找出的 bug 都不可信,那这些应用就最多只能当 showcase 。
除了当客服和翻译想不出还能拿来干嘛。
我有国外手机。
【 在 z16166 的大作中提到: 】
: 搞严格的数学推导,这种深度学习的AI应该都不行
openai帐号某宝搞的?需要国外手机号。
【 在 philbloo...
--
FROM 188.67.137.*
我提的那两个简单的逻辑题是看看它有没有逻辑能力的。我本来以为机器学习已经可以做出上面两题了,因为开始的 code review 的例子暗示机器能理解 mutex 的语义跟 data race 之间的逻辑关系,甚至能从上下文里推断出 data race。
后面的关于欧拉定理的是看它能不能复述现成的结论,因为这个问题的答案在维基上能搜到,但需要重新组织一下语言。换句话说,一个人不懂数论也可以通过阅读几页维基页面,写下一个凑合的但是符合事实的答案。也就是说这可以是一个纯粹的符号处理的问题。我本来以为机器达到这一步应该是没有问题的。
【 在 lvsoft 的大作中提到: 】
: 你问的问题太难了吧。要解答这类问题需要理解数论,你问的费马小定理也是这个类别的好吧...
另外,说到一阶逻辑,这恰恰是...
--
FROM 188.67.137.*
哪怕是简单的数学证明也是要直觉的。证明中常见的一句话,“Observe that...”,就是直觉,比如找到一个 contradiction,一个 homomorphism,哪怕是找极限也是要构造一个不等式,这些东西没法用模式匹配或者任何机械化的步骤求出来。
【 在 chunhui 的大作中提到: 】
: 我觉着逻辑也是一种模式匹配。或者说人类的学习和思维至少有百分之六七十都是基于模式匹配的。不过我这里说的模式匹配不是字符匹配这种。
: 比如一个逻辑推理或者数学题证明。可以认为是特定模式的匹配:a+b 可以推出b+a 交换律结合律之类的。都是模式匹配和等价转换。
: 如果让计算机搞这些。就是想办法提炼出模式,然后去匹配。
--
FROM 188.67.137.*
10年?取代所有人?我没那么乐观(还是悲观?)
我不相信晶体管加软件能证明勾股定理。永远都不能。
【 在 lvsoft 的大作中提到: 】
: 也没这么激动...其实我看到chatgpt第一时间就去看它的bench结果,也即iq测试成绩和gmat成绩这种比较综合的bench。一看是略高于弱智我就心理有数了,接下来无非是看各种乐子人玩出什么花样而已。
: 我必须得说,主要的乐趣还是人创造的...chatgpt更多的是给我一些震撼,让我看到了一些突破我预设能力的表现。
: 但我确实非常关注AI。应该说我不仅仅是关注而已...我认为AI是一个会在10年左右淘汰所有人的力量,作为最接近这个力量的职业,应该尽力尽快把它掌握在自己手里。
--
FROM 188.67.137.*