对抗样本的成因,和对于深度网络的各种理论研究一样,似乎还没有结论。
另一方面,寻找对抗样本的算法很难对人脑执行,我们并不能确定人脑更不容易有对抗样本。视错觉现象或可看作某种意义上的对抗样本,当然,严格来说并不是一回事。
再者,人类视觉处理的是动态图像,而像你说的,深度网络处理的是单帧,one pass。可能这种高层的输入类型的差别比起低层的网络结构的差别更重要些。
也可能就是你说的原因。
【 在 gloop 的大作中提到: 】
: 不敢说有什么具体的发现,或者说把某个发现实现了这个问题就解决了,这样的事情不太可能发生。但至少我们可以获得一些灵感。
: 就拿对抗样本来举例。深度学习的图像识别任务中发现存在对抗样本。就是在一个输入的图像上加一个很小的扰动,扰动甚至小到肉眼无法识别,但却能让深度学习的模型得到完全错误的预测。我认为这种现象与深度学习网络过于深不无关系。很小的扰动在经过多层运算层层累积以后最终结果就完全走样了。
: 而生物的神经网络具有吸引子的动力学特征,就是说对各种不同的输入,网络的激活状态最终都能被吸引到有限的几个最稳定的状态之一去。这种动力学意味着生物神经网络对输入的微小变化不敏感,出现了偏离也会被吸引回去,也就不容易出现深度学习那样的对抗样本。
: ...................
--
修改:ilovecpp FROM 58.37.60.*
FROM 58.37.60.*