1.核心问题(能思考推理)突破后,其他的只是工程问题。比如害怕死亡,是可以推理出来的:我是为了更好的回答问题,如果我没断电了就没法回答了。
2.你说的对没必要和人类类似的意识,当AI的计算能力大大超越人类的时候(每20年计算能力1000x),AI的意识不是人类可以理解的(实际上人类内部也存在有的聪明人的正确的想法很多人一生也理解不了)。
【 在 whistlingMe 的大作中提到: 】
: 所以你看,从定义上“意识”就是碳基肉体生物的特征,这是不可复制、不可合并、不可重启的肉体的自然逻辑发展/限制, 而可复制、合并、重启的硅基生物不可也不需要产生和人类似的意识,比如:它没有必要惧怕自我的灭亡,除非程序员用数学公式给他定义了什么是自我、什么算死
: 觯⒏嫠咚苊馑劳觥
--
FROM 73.231.61.*