- 主题:柯洁:AI让围棋无聊透顶 人类棋手失去存在意义 (转载)
我老人家一针见血指出,你们争论的根源在于中英文翻译的差别,你几个光顾着唇枪舌剑,却没发现,嘿嘿
Vision掌握着通往真正人工智能的key,把vision做明白了,人工智能就明白了一半。CNN一定程度已经很接近真相了,不然不可能这么effective。多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近人脑了。人脑算力已在10年前被电脑超过。当然cpu,gpu的结构不适合当神经网络就是了。和人脑比起来还很粗陋,但本身视觉图像处理已经成熟。performance差,主要来源于后面、类似于人逻辑处理的层(比如判断什么物体,手势,结构等),一般简单用fc layer来模拟,也许完全是错的。可能cnn只对应了人脑部分具象思维,离先验概念上的抽象思维还很远。但既然cnn可以暴力数据驱动来实现低阶功能,焉知不会发现对应抽象逻辑思维的网络?
真正的自然语言处理跟通用智能一样困难。你只要有逻辑,不需要懂任何知识。你想想,机器会吹NB扯JB蛋。这玩意那么容易搞?别说不用码工,领导和老板也没用了。吹NB扯JB蛋搞不过机器,就是人类历史的终结。这玩意,全世界只要一台就够了。NLP的终极目标,就是取代。直接把自然语言转化为确定图灵机DTM。只需一台机器,和全世界聊聊天,就搞定了。就是general AI。这个世界只需要一台,就可以彻底消停了。
【 在 h2929 的大作中提到: 】
: 你说的都对,我比较关注这段, 一步一步来吧。
: “但有了0到1,就会有1到100、1万。现在用大规模神经网络已经可以摸仿几亿年进化出的视觉(智能一部分)。下一步仿的是几百万年的人类智能。”
: 现在视觉任务总体做的不错,但是还有以下笑话需要解决。
: ...................
--
FROM 164.92.116.*
你说的cnn是啥?
【 在 Zsuper 的大作中提到: 】
: 我老人家一针见血指出,你们争论的根源在于中英文翻译的差别,你几个光顾着唇枪舌剑,却没发现,嘿嘿
: Vision掌握着通往真正人工智能的key,把vision做明白了,人工智能就明白了一半。CNN一定程度已经很接近真相了,不然不可能这么effective。多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近人脑了。人脑算力已在10年前被电脑超过。当然cpu,gpu的结构不适合当神
: 缇褪橇恕:腿四员绕鹄椿购艽致旧硎泳跬枷翊硪丫墒臁erformance差,主要来源于后面、类似于人逻辑处理的层(比如判断什么物体,手势,结构等),一般简单用fc layer来模拟,也许完全是错的。可能cnn只对应了人脑部分具象思维,离先验概念上的抽象思维还很远。
: ...................
--
FROM 216.240.30.*
我对于中英文翻译的区别没兴趣,我本人以前就是做自然语言处理 和机器翻译的,
机器的中英文翻译做的很差,即使现在也做的不行,经常闹笑话。
图像处理cv cg这些是最近几年机器学习的热点,然而还是我说的CNN,RNN 这种玩意不管吹的多nb,只是一部分真相,关于图像暗含的推理,常识,逻辑这块还是做的不行。
至于原因,我也不知道,你说的也许是对的。或者就是我说的,现在的神经网络搞再多层,乱七八糟的一堆结构堆上去,是不是真的能模拟人脑的思维,还待商榷。人脑是不是图灵机,也待商榷。人脑有可能更接近量子计算机的思路。
【 在 Zsuper 的大作中提到: 】
: 我老人家一针见血指出,你们争论的根源在于中英文翻译的差别,你几个光顾着唇枪舌剑,却没发现,嘿嘿
: Vision掌握着通往真正人工智能的key,把vision做明白了,人工智能就明白了一半。CNN一定程度已经很接近真相了,不然不可能这么effective。多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近人脑了。人脑算力已在10年前被电脑超过。当然cpu,gpu的结构不适合当神
: 缇褪橇恕:腿四员绕鹄椿购艽致旧硎泳跬枷翊硪丫墒臁erformance差,主要来源于后面、类似于人逻辑处理的层(比如判断什么物体,手势,结构等),一般简单用fc layer来模拟,也许完全是错的。可能cnn只对应了人脑部分具象思维,离先验概念上的抽象思维还很远。
: ...................
--
FROM 163.114.132.*
以下都是网上抄的。我自己对这些玩意是工作经常用,但是还觉得不够智能,经常闹笑话
CNN,RNN,LSTM都是什么?
卷积神经网络(Convolutional Neural Network, CNN)
CNN 是一种前馈神经网络,通常由一个或多个卷积层(Convolutional Layer)和全连接层(Fully Connected Layer,对应经典的 NN)组成,此外也会包括池化层(Pooling Layer)。
循环神经网(Recurrent Neural Network,RNN)
RNN,循环神经网络,也有人将它翻译为递归神经网络。从这个名字就可以想到,它的结构中存在着“环”。
确实,RNN 和 NN/DNN 的数据单一方向传递不同。RNN 的神经元接受的输入除了“前辈”的输出,还有自身的状态信息,其状态信息在网络中循环传递。
长短时记忆(Long Short Term Memory,LSTM)
LSTM 可以被简单理解为是一种神经元更加复杂的 RNN,处理时间序列中当间隔和延迟较长时,LSTM 通常比 RNN 效果好。
相较于构造简单的 RNN 神经元,LSTM 的神经元要复杂得多,每个神经元接受的输入除了当前时刻样本输入,上一个时刻的输出,还有一个元胞状态(Cell State)
【 在 cjohny 的大作中提到: 】
: 你说的cnn是啥?
: 窬
: 。
: ...................
--
FROM 163.114.132.*
啊,原来你们是同行,都是搞神经网络的啊。
【 在 h2929 的大作中提到: 】
: 以下都是网上抄的。我自己对这些玩意是工作经常用,但是还觉得不够智能,经常闹笑话
: CNN,RNN,LSTM都是什么?
: 卷积神经网络(Convolutional Neural Network, CNN)
: ...................
--
FROM 216.240.30.*
现在有一些高级神经网络,自己学习,已经开始模拟出小老鼠大脑里的神经元聚集和突触了,可能是个慢慢进化的过程,但是不知道哪天才能进化好。
前两年吹的很牛逼的GPT-3,号称最强大的自然语言处理应用程序,吹的天花乱坠,什么自动写代码,自动回答推理型问题,等等,我看了一下,还是很容易找到弱点,可以说是一个笑话集。所以不管是vision还是NLP还是自动驾驶,只要涉及到认知,推理,常识这块,目前的AI还差的很远,当然一定的进展肯定是有的。
【 在 Zsuper 的大作中提到: 】
: 我老人家一针见血指出,你们争论的根源在于中英文翻译的差别,你几个光顾着唇枪舌剑,却没发现,嘿嘿
: Vision掌握着通往真正人工智能的key,把vision做明白了,人工智能就明白了一半。CNN一定程度已经很接近真相了,不然不可能这么effective。多个layer把一张图片从裸像素一层层抽象到高级概念,这个很接近人脑了。人脑算力已在10年前被电脑超过。当然cpu,gpu的结构不适合当神
: 缇褪橇恕:腿四员绕鹄椿购艽致旧硎泳跬枷翊硪丫墒臁erformance差,主要来源于后面、类似于人逻辑处理的层(比如判断什么物体,手势,结构等),一般简单用fc layer来模拟,也许完全是错的。可能cnn只对应了人脑部分具象思维,离先验概念上的抽象思维还很远。
: ...................
--
FROM 163.114.132.*
我主要是偏应用,用神经网络骗钱,经常骗不来,因为做的太差。
对于真正搞神经网络,让它接近智能的那些研究者,我是很佩服的。当然那里面很多骗钱水paper的,也有真正干实事的。
【 在 cjohny 的大作中提到: 】
: 啊,原来你们是同行,都是搞神经网络的啊。
--
FROM 163.114.132.*
你们公司那个田啥啥的做的围棋人工智能咋样了?可堪一战否?
【 在 h2929 的大作中提到: 】
: 我主要是偏应用,用神经网络骗钱,经常骗不来,因为做的太差。
: 对于真正搞神经网络,让它接近智能的那些研究者,我是很佩服的。当然那里面很多骗钱水paper的,也有真正干实事的。
--
FROM 216.240.30.*
我觉得他在AI领域什么都做,写很多paper,各种自动打游戏平台,图像处理,NLP等等他都涉及,然后围棋不是一个难的AI问题,Alphago出来之后他们就没继续搞了,不值得投入金钱精力。
【 在 cjohny 的大作中提到: 】
: 你们公司那个田啥啥的做的围棋人工智能咋样了?可堪一战否?
--
FROM 163.114.132.*
难怪最近没啥消息了
【 在 h2929 的大作中提到: 】
: 我觉得他在AI领域什么都做,写很多paper,各种自动打游戏平台,图像处理,NLP等等他都涉及,然后围棋不是一个难的AI问题,Alphago出来之后他们就没继续搞了,不值得投入金钱精力。
--
FROM 216.240.30.*