我意思是
人工智能一直以来用神经网络和反向传播算法路线并没有错,只是2010年以前,还没有足够的训练数据和并行计算的基础架构
所谓的算力,那都是Google用cpu和索引的网络数据训练后,发现用打游戏的gpu做数值运算更省钱,才逐步发展起来的,而在Google发明transformer后,也很快就发现了其实gpu这个设计给游戏的东西并不是很适合模型开发和推导,所以也根据transformer的算法自己设计了tpu芯片
【 在 rocfirst @ [GreenAuto] 的大作中提到: 】
:
: 所以本质是算力的增加,算力积累到数了,自然地就会找出现存各种理论尝试中最合适的算法
:
: 【 在 Icanread 的大作中提到: 】
: ai的发展,根本原理是神经网络和反向传播算法,这是目前所有进展的基础,hinton因为这个得了诺贝尔奖
:
: 但是在Google索引全网数据和大幅改进并行计算架构(MapReduce,gfs啥的)之前,没有任何地方能够发挥神经网络和反向传播算法的威力,所以几十年来人工智能技术毫无寸进,甚至搞这方面研究的人都被认为不是正经的研究人员
:
: 【 在 rocfirst @ [GreenAuto] 的大作中提到: 】
: :
: : ai的本质是算力的增加,不是算法本身,就像人类进化史的积累一样,当然积累多了也就会用更多好算法了。
: :
: : 固态这个就是化学物的实现,能搞定满足条件的化学物就有,否则就无。材料这种不是说调啊调,调到99%满足最后一点能慢慢磨出来,而是可能到最后也不行要从头再来。所以,看起来这不是积累的问题,是个突显的事情。
: :
: : 嗯,只是看起来啊,我是外行。。。。
: :
: : 【 在 Icanread 的大作中提到: 】
: : : 最后一条不一定
: : : 典型的反例就是人工智能
: : : hinton说他当年说自己是搞人工智能的,人家都觉得这不是个搞正经研究的人
: : : ...................
: #发自zSMTH-v-@24129PN74C
#发自zSMTH-v-@24129PN74C
--
FROM 125.33.207.*