- 主题:跟几个人聊了聊chat-gpt是否可能有自我意识
背景:几个人都是AI和IT领域的资深人员,有纯学术的,也有学术和工程应用双栖的,还有纯工程应用的。这几个人都同意目前这个版本的chat-gpt,有相当的可能通过Turing测试;此版本的后续升级和fine-tunning,几乎肯定可以通过Turing测试。
重点结论:除了一个人有部分保留之外,其他人都不觉得目前的chat-gpt(以及基于此chat-gpt架构的后续版本)可能有自我意识,也不觉得这个系统能真正理解怹自己说的话。但是,关于怹为何没有自我意识和真正的理解力这个问题,基本没有人能拿出来一个靠谱点儿的解释。
对于这个问题,本卢在也倾向于否定回答。在讨论时,提了如下一个论据:有些信息的存在形式是非经典的,不能在图灵机上精确存储和操作,例如量子信息。所以,如果人脑的信息存储和处理事完全经典,那么至少在理论,它可以被普通的计算机程序(包括chat-gpt这种系统)完全模拟;否则,人脑和普通的计算机程序之间,有实质性区别。
--
FROM 125.37.102.*
现在连人有没有自我意识都没法搞清楚
【 在 touareg (Wir müssen wissen, wir werden wissen) 的大作中提到: 】
: 背景:几个人都是AI和IT领域的资深人员,有纯学术的,也有学术和工程应用双栖的,还有纯工程应用的。这几个人都同意目前这个版本的chat-gpt,有相当的可能通过Turing测试;此版本的后续升级和fine-tunning,几乎肯定可以通过Turing测试。
:
: 重点结论:除了一个人有部分保留之外,其他人都不觉得目前的chat-gpt(以及基于此chat-gpt架构的后续版本)可能有自我意识,也不觉得这个系统能真正理解怹自己说的话。但是,关于怹为何没有自我意识和真正的理解力这个问题,基本没有人能拿出来一个靠谱点儿的解释。
:
--
FROM 60.249.32.*
梦再真也是梦
魔术再像也是假
--
FROM 223.104.194.*