这是很无知的,完全不理解现在深度学习架构下的智驾系统。
深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么:是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度或者召回率,但注意这个“或者”一般是不可兼或,这种所谓的提升很大程度上只是春秋笔法用例而已——由于模型的可解释性很差,简单地调调超参根本没法实质性解决伪正率和伪负率之间的矛盾。
所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
--
FROM 111.167.210.*