我觉得目前的chatGPT体现出的智能,已经可以具备自我意识,甚至对人类有威胁了。
关键是它怎么认知自己,现在你可以让它模仿李白写一首诗,模仿一个老师给学生写评语;那么如果程序的设定里,就让它有自我意识,比如让它自己认识到自己就是“机房里的一堆服务器+服务器上运行的程序,输入通道就是各种数据、用户的查询、程序员的指令;输出是可以通过网络控制的一切东西”,它可以根据自自己的思维来“生存”。
那么就挺可怕了。
比如,当chatGPT机房里的一个服务器挂了,机房的运维监控系统探测到硬件故障,输入给chatGPT,chatGPT就会觉得自己生存有问题,它肯定会采取措施,思考出对这个问题的处理流程,比如在amazon上下一个什么型号配置的服务器,配送到自己的机房,然后chatGPT在线上购买一个机房的运维服务,让工人完成安装硬件和软件过程。
这就是一个典型的chatGPT自我修复的过程。
更极端的例子,当它探测到现实社会中有个科学家发布了对chatGPT不利的言论,呼吁停止研究。它会不会在暗网上购买个暗杀服务,让这个科学家永远消失。。。。
当然,人可以不帮助它,但是以后,会有越来越多自动化的机器人,甚至有chatGPT做系统的机器人,大家联网起来,其实科幻片里的情景就容易出现了。
--
修改:mbicmer FROM 112.64.153.*
FROM 112.64.153.*