本质就是十年前CUDA的出现。
当年本狄青就看好CUDA,可惜没有投入这个行业。
二十年前,就写过神经网络的综述,小毕业论文。
算法这些都是早就控制领域研究透了。
【 在 rocfirst 的大作中提到: 】
: 所以本质是算力的增加,算力积累到数了,自然地就会找出现存各种理论尝试中最合适的算法
: ai的发展,根本原理是神经网络和反向传播算法,这是目前所有进展的基础,hinton因为这个得了诺贝尔奖
: 但是在Google索引全网数据和大幅改进并行计算架构(MapReduce,gfs啥的)之前,没有任何地方能够发挥神经网络和反向传播算法的威力,所以几十年来人工智能技术毫无寸进,甚至搞这方面研究的人都被认为不是正经的研究人员
: ...................
--
FROM 36.112.207.*