水木社区手机版
首页
|版面-编程技术(Programming)|
新版wap站已上线
返回
1/1
|
转到
主题:看看AI生成的Python代码质量
3楼
|
gloop
|
2020-06-14 09:58:24
|
展开
距离能理解复杂的业务逻辑恐怕还差得很远。但的确是巨大的进步。
【 在 lvsoft (Lv(The Last Guardian)) 的大作中提到: 】
:
https://www.bilibili.com/video/BV1ni4y1x7u5
: 感觉比培训班出来的靠谱啊,已经可以搞搞这种培训班级别的事情了。
--
FROM 118.112.200.*
55楼
|
gloop
|
2020-06-15 14:29:31
|
展开
深度学习的反向传播这种基于全局求导的算法在生物上不太可能,这应该几乎是共识了吧。生物神经元的学习规则 spike-timing dependent plasticity (STDP) 是一种局部的、跟时间紧密相关的机制。说它跟深度学习的反向传播有本质的不同我不认为有什么不妥。任何了解STDP的人都有资格下这个论断。当然人工智能如果不走生物模拟的路线能否达到与人类只能匹敌的程度,那又是另外一个问题。
【 在 ilovecpp (cpp) 的大作中提到: 】
: 纠正一个事实错误。当前人工神经网络里面神经元的行为离“把单个或者少量神经细胞的行为非常成功地进行了计算机模拟”相去甚远,只能说受后者启发。单个神经元其实是非常复杂,远未被研究清楚的。一个线性变换和分段线性函数的组合完全不能称为对神经元的模拟。
: 然后,无论计算机,生物学还是心理学界,离理解人类智能还相差甚远。在完全不理解人类智能本质的现在,谁有资格断言人工智能本质和人类智能一样或不一样?
--
FROM 118.112.200.*
58楼
|
gloop
|
2020-06-15 15:50:09
|
展开
什么叫做底层机制不同,什么叫做本质不同,这我不关心。我关心的是,正因为深度学习与人脑是如此的不同,所以神经科学的一些发现无法应用到深度学习上。诸如迁移学习、小样本学习、对抗样本等深度学习遇到的困难,为什么在人脑中解决得这么好,我们也完全无法利用从中获得的灵感来改进深度学习。
【 在 ilovecpp (cpp) 的大作中提到: 】
: 我第一段的意思和你完全一样。
: 但“A和B的底层机制有本质的不同”和“A和B的本质不同”是两回事。例如,图灵机和递归函数的底层机制不同,但可以说它们本质上相同。
: “现在的人工智能本质就和人的智能不一样”这个论断,我认为现在没有人有资格下。或者说,下这个论断的人请讲一下人类智能的本质是什么,以及,既然你了解它的本质,那么阻碍你把它复制出来的具体困难是什么。
: ...................
--
FROM 118.112.200.*
62楼
|
gloop
|
2020-06-15 17:17:28
|
展开
不敢说有什么具体的发现,或者说把某个发现实现了这个问题就解决了,这样的事情不太可能发生。但至少我们可以获得一些灵感。
就拿对抗样本来举例。深度学习的图像识别任务中发现存在对抗样本。就是在一个输入的图像上加一个很小的扰动,扰动甚至小到肉眼无法识别,但却能让深度学习的模型得到完全错误的预测。我认为这种现象与深度学习网络过于深不无关系。很小的扰动在经过多层运算层层累积以后最终结果就完全走样了。
而生物的神经网络具有吸引子的动力学特征,就是说对各种不同的输入,网络的激活状态最终都能被吸引到有限的几个最稳定的状态之一去。这种动力学意味着生物神经网络对输入的微小变化不敏感,出现了偏离也会被吸引回去,也就不容易出现深度学习那样的对抗样本。
而这种吸引子的动力学,就不是现在深度学习的前馈网络能实现的。生物的神经网络不仅有前馈的连接,更有反馈的连接。也不像深度学习这样一轮传递得出结果。必须是不断前馈又反馈再前馈再反馈,是经过一段时间不断修正的结果。
【 在 ilovecpp (cpp) 的大作中提到: 】
: 问题是对于比如“小样本学习为什么为什么在人脑中解决得这么好”,神经科学具体有什么发现呢?
--
FROM 118.112.200.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版