- 主题:Ai几十年发展史兜了一大圈,又回到仿生的路子上了
并没有,误导,仿生的路一直有人在走,只是算力和数据不够。
够了之后,不到5年就爆发了
【 在 pixYY 的大作中提到: 】
: 其实,摸索这么多年,这才逐渐走向正路
: 当年大佬明斯基写的书,不怀好意命名为《感知机》,严重误导了AI研究方向,否则AI应该
: 比现在发展更快若干年
: ...................
--
FROM 159.226.52.*
还没有误导
由于这本书,神经网络方面研究受影响很大,连 辛顿 读研究生搞这个都差点被劝放弃
【 在 yzjba 的大作中提到: 】
: 并没有,误导,仿生的路一直有人在走,只是算力和数据不够。
: 够了之后,不到5年就爆发了
--
修改:pixYY FROM 111.36.200.*
FROM 111.36.200.*
人脑有什么意识?人脑做的一切想法都是基于吸收的内容,然后做推理,提炼和拓展而已,不会完全无中生有,和现在的人工智能没什么区别。
【 在 far 的大作中提到: 】
: 人脑还不是一样,人脑能工作,但不知道自己是怎么工作的;人脑有意识,但不知道意识是怎么形成的。
--
FROM 171.212.98.*
呵呵
【 在 bingfengtmc 的大作中提到: 】
: 人脑有什么意识?人脑做的一切想法都是基于吸收的内容,然后做推理,提炼和拓展而已,不会完全无中生有,和现在的人工智能没什么区别。
--
FROM 183.208.181.*
然而并没有,总有人会走这条路,即使他不做,还有别人
【 在 pixYY 的大作中提到: 】
: 还没有误导
: 由于这本书,神经网络方面研究受影响很大,连 辛顿 读研究生搞这个都差点被劝放弃
:
--
FROM 159.226.52.*
embedding就是词向量?
【 在 booble 的大作中提到: 】
: 改正:attention也不是transformer模型原创。
: 我觉得embedding才是革命性的想法,transformer不过解决了并行训练的问题。
:
--
FROM 113.104.248.*
对,是包含了语义信息的词向量,不是仅仅表示词汇表位置的词向量。
【 在 johnfader 的大作中提到: 】
: embedding就是词向量?
--
FROM 112.41.21.*
对的,tranformer模型的并行对embedding很大贡献吧,embedding需要很多计算量。
【 在 booble 的大作中提到: 】
: 对,是包含了语义信息的词向量,不是仅仅表示词汇表位置的词向量。
:
--
FROM 113.104.248.*
embedding算啥革命性想法,感觉我都想到过。就是把词映射到一个合理的向量空间里,这不是本来就应该做的事情吗。 transformer算是各种技术发展到一定程度,水到渠成的事情。
【 在 booble 的大作中提到: 】
: 改正:attention也不是transformer模型原创。
: 我觉得embedding才是革命性的想法,transformer不过解决了并行训练的问题。
:
--
FROM 1.202.170.*
那你厉害,我原来对文字的理解就是一个符号,用什么样的方式表示都可以,只要能区分开不同的字符就行。但实际上文字不是单独存在的,文字之间有各种各样的关联关系,embedding里面存储了这些信息,所以大模型才能对自然语言有更深入的理解。
【 在 liaotianxia 的大作中提到: 】
: embedding算啥革命性想法,感觉我都想到过。就是把词映射到一个合理的向量空间里,这不是本来就应该做的事情吗。 transformer算是各种技术发展到一定程度,水到渠成的事情。
--
FROM 112.41.21.*