看看fsd吧,虽然它的corner case更难以解释,但基本已经脱手脱脚脱眼了,国内都还2022年tesla水平,2023年tesla的突破类似于openai在llm领域的地位,知道咋搞就是搞不出来啊。。。
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么:是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),也不容易手动地修正。因为很难
: 把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度
: ...................
--
FROM 167.220.233.*