- 主题:看到一些ChatGPT的有点意思的例子...
所以我前面也说了啊,逻辑系统的输入输出首先就是符号。
至于这个符号之前的东西,你们人类内部先统一好,总不能“1”在你这里是1的意思,在我这里是2的意思吧。
进入逻辑系统之后的一切都是严密和确定的,但在边界上并不是。
符号系统当然限制太大了,事实上我是相当反感把理性封为绝对真理,觉得一个东西没经过严密证明就“不靠谱”的这种观点的。原因就是我不认为理论证明能代表实际情况,只能是对实际情况的一个非常抽象的近似。这就是形式化语言在获得逻辑上的严格性这个好处之外,所付出的巨大代价。
简单的说,为了能严密证明,很多细节都只能用一个更大的上下界忽略掉,或者忽略代价做等价转换。所以得到的结论其实也只是一个简化后的还被拓的很宽的边界。这个被简化的问题和这个被拓宽的边界有没有价值都是问题。比如说图灵停机问题是不可解的,但chatgpt展现的事实上就是图灵停机问题的判断。而图灵停机问题的证明过程中,有个前提假设就是程序是确定的不可动态更改,也即程序得有确定性。在没有ai的时候思考程序怎么自己修改自己貌似是挺困难的,因为程序是一个精心设计的系统,自己修改自己很难不把自己改崩...但AI时代不同了啊,AI完全可以自己更新自己的权重,而不会产生太多副作用。虽然现在这些还没有发生,但有很多例子预示AI是可以放弃自己的确定性的。那么图灵停机问题证明过程中的假设就不成立了呀,这个影响可是挺大的。
【 在 chunhui 的大作中提到: 】
: 我前面说了。人的思维不是严格按照字符串这种。人是把概念抽象之后,用这个抽象概念在模式匹配。这里面自然就会有偏差。 每个人头脑中的概念并不一样,或者至少严格边界每个人并不重合。比如我心中的苹果和你心中的苹果。并不一样。
: 再往深了说,就涉及到语言的准确性问题。语言是非常模糊非常不准确的,要么描述不清,要么有的概念甚至无法表达出来。这就是有些宗教概念中拒绝用语言来悟道最高境界的缘故。
: 同样,语言有限制,那可能任何符号系统也都是有限制的...
--
修改:lvsoft FROM 180.158.63.*
FROM 180.158.63.*
实际案例中都是相对安全即可,开车也不需要绝对的正确。
美国交通一年要死5万多人,差不多就是每天摔一架满载的737,AI只要超过这个水平就行,超过10倍就可以立法禁止人开车了,多大事。
【 在 chunhui 的大作中提到: 】
: ai其实用不着搞定图灵测试,解决停机问题,或者达到理论上的如何如何。它只要能达到普通应用水平,就可以搞定全世界了。那些都是理论专家需要考虑的事。比如开车,它只要能解放大多数开车人的双手。就足够了。
--
FROM 180.158.63.*
我跟你也是一样的感觉。
就像我们走路,实际上在底层会发生无数极其复杂的计算,每个关节要用多少的角度,包括控制整个身体的姿态,包括遇到外力,尤其是忽然袭击的外力的情况下如何反映等等。
如果要给人走路建个数学模型,这个模型只能是做过大量简化之后依然还是个非常复杂的系统。
但人脑就能native的处理好走路过程中的所有计算细节,还都是瞬间完成,日常根本就感知不到。
但人脑通过理性也确实可以建立出走路的数学模型,然后用纸笔去推理其中的某个具体的动作细节。
这个就是你所说的二级系统。
现在AI的情况就是还不具备这样的二级系统,但已经有很多案例表现的像是这个二级系统的雏形了...
【 在 sixue1999 的大作中提到: 】
: 不是,我的意思不是说创意和灵感,恰恰是严谨和逻辑
: 需要注意的是,人脑就是通过不严谨的底层结构构建出了
: 严谨的逻辑思维
: ...................
--
FROM 180.158.63.*
不是,虽然我的主观态度是非常欢迎AI时代的到来,而且必要的情况下我一定会当碳奸....
但最近这几天主要是看的太开心了...好多很好玩的例子...
【 在 DoorWay 的大作中提到: 】
: 卧槽你这么活跃这两天,是为了在网络留下证据,表示支持AI吗
: 等机器人统治时代来临,能获得赦免?
: 我也支持人工智能的合理性。
--
FROM 180.158.63.*
我在另一个回帖里说了,chatgpt的iq测试是83分,比弱智高一点,算是智商低下。
GMAT它拿到了1000分出头,大约排在所有成绩的52%,虽然是中位数...但我觉得GMAT这种排在中位数应该也算是弱智吧...
【 在 lag 的大作中提到: 】
: 好吧 我还想让它做iqdoor版的各种经典题目呢
--
FROM 180.158.63.*
对的,我是懒得自己去申请帐号测试了,我就看其他人玩的结果。
看了很多例子后的感觉,就是在做白日梦...
有很多合理的地方,也有很多不合理的地方...
但这种随心所欲的感觉就很奇妙...
【 在 wallyz 的大作中提到: 】
: 我今天试了一下,它确实可以模拟一个terminal,而且确实不是靠自己背地里起了一个虚拟机来做的
: 基本原理应该是根据你跟他交互的上下文,加上它的一些训练数据,它给出的回答
: 所以那个起虚机的例子,应该是作者在之前跟它之前的交互中有pytorch的这个版本信息
: ...................
--
FROM 180.158.63.*
我一秒注册完毕...用英文跟它聊了聊,感觉是个杠精...
但一旦被我指出错误马上会承认错误并道歉...
这一点比杠精好...
就是太过于回避具体细节问题了,一直在跟我宽泛的讨论...
得我不断的逼着追问才会给我吐出细节...
【 在 DreamDreams 的大作中提到: 】
: 看来历史知识还不太行
: 澶渊之盟是哪一年,具体内容是什么
: 澶渊之盟是一个概念,不是一个具体的事件。它是源于中国古代的文学作品,用来描述两个人之间的友谊和紧密合作关系。它指的是两个人之间的约定,表示他们之间互相承诺要互相帮助、支持对方。这个概念并不局限于某一个时间,而是一个普遍的文化概念。
: ...................
--
FROM 180.158.63.*
也没这么激动...其实我看到chatgpt第一时间就去看它的bench结果,也即iq测试成绩和gmat成绩这种比较综合的bench。一看是略高于弱智我就心理有数了,接下来无非是看各种乐子人玩出什么花样而已。
我必须得说,主要的乐趣还是人创造的...chatgpt更多的是给我一些震撼,让我看到了一些突破我预设能力的表现。
但我确实非常关注AI。应该说我不仅仅是关注而已...我认为AI是一个会在10年左右淘汰所有人的力量,作为最接近这个力量的职业,应该尽力尽快把它掌握在自己手里。
【 在 DoorWay 的大作中提到: 】
: 哈哈,看来你平时一直关注这个话题,所以激动
: 我是套了《硅谷》里Gilfoyle的一个梗,他也求天网赦免他
: :
--
修改:lvsoft FROM 180.158.63.*
FROM 180.158.63.*
很简单,AI领域的摩尔定律是1年翻翻,所以10年翻1024倍。
也就是把现在gpt3(人脑突触1/1000规模)升级到人脑同等规模需要的时间。
如果说1个ai参数不足以代表1个人脑突触,那上到10个参数就是再加3年。上到100个参数就是再加4年。这样无非是10,13,17年这3个时间点而已。
我认为1个ai参数很可能无法表达1个人脑突触,但应该也不至于需要100个。此外gpt3在人脑1/1000规模下在很多领域的表现也超出了我的判断,所以可能ai也不需要真的达到人脑同等规模。所以我把各种条件折衷之后,判断是10年以后。
等达到人脑同等规格后面就再说了,我认为AGI就会自然萌生,不需要做什么特殊的事情。
至于你我的信或者不信都没啥道理,只是一种信仰而已。
【 在 philbloo 的大作中提到: 】
: 10年?取代所有人?我没那么乐观(还是悲观?)
: 我不相信晶体管加软件能证明勾股定理。永远都不能。
:
--
修改:lvsoft FROM 180.158.63.*
FROM 180.158.63.*
那是肯定的,但资本也不是第一天就有的,资本也不是永远不灭的,也不断有新生的资本。
每一种新生的具有代差的力量,都是把所有人拉到同一根起跑线的机会。
当然,资本即使跟你在同一个起跑线上,他也是开着跑车而你只有双腿。
但即使如此在起跑的那0.5秒内,你还是有超越跑车的能力的。
后面就看你能否把握住机会在这0.5秒内掏出一辆跑车了...
【 在 tgfbeta 的大作中提到: 】
: 淘汰人的不是AI,是资本
: 历史肯定会证明,即使在AI方面,有钱,就是爽
--
修改:lvsoft FROM 180.158.63.*
FROM 180.158.63.*