- 主题:Ai几十年发展史兜了一大圈,又回到仿生的路子上了
还没有误导
由于这本书,神经网络方面研究受影响很大,连 辛顿 读研究生搞这个都差点被劝放弃
【 在 yzjba 的大作中提到: 】
: 并没有,误导,仿生的路一直有人在走,只是算力和数据不够。
: 够了之后,不到5年就爆发了
--
修改:pixYY FROM 111.36.200.*
FROM 111.36.200.*
人脑有什么意识?人脑做的一切想法都是基于吸收的内容,然后做推理,提炼和拓展而已,不会完全无中生有,和现在的人工智能没什么区别。
【 在 far 的大作中提到: 】
: 人脑还不是一样,人脑能工作,但不知道自己是怎么工作的;人脑有意识,但不知道意识是怎么形成的。
--
FROM 171.212.98.*
呵呵
【 在 bingfengtmc 的大作中提到: 】
: 人脑有什么意识?人脑做的一切想法都是基于吸收的内容,然后做推理,提炼和拓展而已,不会完全无中生有,和现在的人工智能没什么区别。
--
FROM 183.208.181.*
然而并没有,总有人会走这条路,即使他不做,还有别人
【 在 pixYY 的大作中提到: 】
: 还没有误导
: 由于这本书,神经网络方面研究受影响很大,连 辛顿 读研究生搞这个都差点被劝放弃
:
--
FROM 159.226.52.*
embedding就是词向量?
【 在 booble 的大作中提到: 】
: 改正:attention也不是transformer模型原创。
: 我觉得embedding才是革命性的想法,transformer不过解决了并行训练的问题。
:
--
FROM 113.104.248.*
对,是包含了语义信息的词向量,不是仅仅表示词汇表位置的词向量。
【 在 johnfader 的大作中提到: 】
: embedding就是词向量?
--
FROM 112.41.21.*
对的,tranformer模型的并行对embedding很大贡献吧,embedding需要很多计算量。
【 在 booble 的大作中提到: 】
: 对,是包含了语义信息的词向量,不是仅仅表示词汇表位置的词向量。
:
--
FROM 113.104.248.*
embedding算啥革命性想法,感觉我都想到过。就是把词映射到一个合理的向量空间里,这不是本来就应该做的事情吗。 transformer算是各种技术发展到一定程度,水到渠成的事情。
【 在 booble 的大作中提到: 】
: 改正:attention也不是transformer模型原创。
: 我觉得embedding才是革命性的想法,transformer不过解决了并行训练的问题。
:
--
FROM 1.202.170.*
那你厉害,我原来对文字的理解就是一个符号,用什么样的方式表示都可以,只要能区分开不同的字符就行。但实际上文字不是单独存在的,文字之间有各种各样的关联关系,embedding里面存储了这些信息,所以大模型才能对自然语言有更深入的理解。
【 在 liaotianxia 的大作中提到: 】
: embedding算啥革命性想法,感觉我都想到过。就是把词映射到一个合理的向量空间里,这不是本来就应该做的事情吗。 transformer算是各种技术发展到一定程度,水到渠成的事情。
--
FROM 112.41.21.*
20多年前搞基于内容的搜索,第一步可不就是先做特征向量的提取,提取的越接近于文本、图片本来的空间分布,搜索效果越好。这真不算啥创新型的想法。
【 在 booble 的大作中提到: 】
: 那你厉害,我原来对文字的理解就是一个符号,用什么样的方式表示都可以,只要能区分开不同的字符就行。但实际上文字不是单独存在的,文字之间有各种各样的关联关系,embedding里面存储了这些信息,所以大模型才能对自然语言有更深入的理解。
:
--
FROM 1.202.170.*