这个只能说,目前ai还处于初级阶段,还不具备归纳演绎推理逻辑的能力。
现在的ai还处于千亿参数规模,而人脑是百万亿突触,其实就相当于人类婴儿的情况。婴儿也不具备归纳演绎推理逻辑这些高级智能,所以婴儿(包括猩猩等智力更低的动物)会有成年人不具备的快照记忆能力。
我不认为现在ai需要大量数据是一个问题。一定要说问题,那只是现在的技术发展还不足以把ai的规模怼到跟人脑同等水平而已。就跟GPGPU之前,2000年前CNN早就提出来了,并没啥卵用。掀起风浪的是2012 alexnet,这篇文章甚至很大的篇幅都在讲怎么设计网络,让它能分布在两张显卡上并行运行这种根本就不应该在论文中出现的“技术技巧”。
我也不认为整个ai体系有什么“算法”,ai到目前为止可以归纳为一句话:大力出奇迹
所以我的观点是,10年后,ai达到百万亿参数规模的时候,什么归纳演绎推理逻辑之类的能力自然会萌生。
【 在 ztysys 的大作中提到: 】
: 你这种数据量只是对当前的算法而言是有意义的
: 人类AI根本是不同路线,高度抽象和逻辑能力,压根不需要机器AI的数据量训练
: 强调人类可以接触大量数据的,都是掩盖算法本身的问题,现在的算法根本没有归纳演绎的能力,才导致依赖巨大的数据量
: ...................
--
FROM 114.222.223.*