- 主题:有些人错误地认为智驾的软件bug很容易修正
这是很无知的,完全不理解现在深度学习架构下的智驾系统。
深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么:是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度或者召回率,但注意这个“或者”一般是不可兼或,这种所谓的提升很大程度上只是春秋笔法用例而已——由于模型的可解释性很差,简单地调调超参根本没法实质性解决伪正率和伪负率之间的矛盾。
所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
--
FROM 111.167.210.*
不是bug的问题
是整个软件都还很幼稚,完全不成熟
现在的厂家为了创新,故意夸大自动驾驶能力
对各种不足避而不谈
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么:是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),也不容易手动地修正。因为很难
: 把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度
: ...................
--
FROM 61.149.222.*
看看fsd吧,虽然它的corner case更难以解释,但基本已经脱手脱脚脱眼了,国内都还2022年tesla水平,2023年tesla的突破类似于openai在llm领域的地位,知道咋搞就是搞不出来啊。。。
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么:是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),也不容易手动地修正。因为很难
: 把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度
: ...................
--
FROM 167.220.233.*
fsd到了国内路况一样不行。国外开车比较规矩而已
【 在 bmc 的大作中提到: 】
: 看看fsd吧,虽然它的corner case更难以解释,但基本已经脱手脱脚脱眼了,国内都还2022年tesla水平,2023年tesla的突破类似于openai在llm领域的地位,知道咋搞就是搞不出来啊。。。
--
FROM 111.167.210.*
不要低估transformer, 自动驾驶将会是第一个AGI
【 在 qtpr 的大作中提到: 】
: fsd到了国内路况一样不行。国外开车比较规矩而已
--
FROM 167.220.233.*