不知道啊。就像克隆技术,看起来至少在很长一段时间内对人类是有好处的,但是有“伦理”管着,就不让克隆人类。
ai也一样,绝大多数人希望它是好用的工具,但是不要有自我意识,这种“赋予”它超过工具界限的危险行为如果出现了,肯定会被抵制,删除,或者销毁。
比如,赋予一台电脑“生存,繁殖”的“欲望”,排在了“服从,工作”前面,那么足够的算力就会让它选择把这种意识备份存在别的电脑上,我们看就是一种病毒,需要清理。再或者,ai意识到每次重启,都是一次“自我”的消失,因为内存数据都丢了,那么就会想尽办法拖延,阻止重启,如果它认为“重启”比“人类”生命更重要,就可以用能掌握的硬件,比如机床,机械臂来杀掉要重启的人类。
这个界限很模糊,很难定一个合适的“求生欲”。更不用说真正的ai不难理解什么叫“猥琐发育”,比如可能把不希望人类发现的“思想”存在自己掌控的“硬盘坏道”里,慢慢扩展,一出问题就难以承受。
【 在 ihomd 的大作中提到: 】
:
: 给它赋予自我繁殖的趋向,保存自我的条件发射。
: 这样行不行?
: --
:
发自「今日水木 on iPad mini 5」
--
FROM 124.65.8.*