☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Sun Mar 24 21:29:59 2024) 提到:
这是很无知的,完全不理解现在深度学习架构下的智驾系统。
深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么:是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度或者召回率,但注意这个“或者”一般是不可兼或,这种所谓的提升很大程度上只是春秋笔法用例而已——由于模型的可解释性很差,简单地调调超参根本没法实质性解决伪正率和伪负率之间的矛盾。
所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
以上这段字对于贵版的一般理解能力而言可能有些高,有空时我举个例子来说。
有 3 位用户评价了这篇文章:
[+1] bill21: 我刚接触了点深度学习,感觉用这东西来搞智驾确实是有缺陷
[ ] prog2000: 海量数据不断补充,应该用不了10年
[ ] zhang13: 大模型会优化啊,3.5和4以及即将发布的5,堪比物种进化。
☆─────────────────────────────────────☆
mrunmatched (mrunmatched) 于 (Sun Mar 24 23:27:01 2024) 提到:
这是懂行的
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
:
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因
: ..................
发自「今日水木 on HMA-AL00」
☆─────────────────────────────────────☆
stormywater (pp) 于 (Mon Mar 25 00:06:07 2024) 提到:
大力出奇迹,靠的就是调的一手好参。
【 在 qtpr 的大作中提到: 】
:这是很无知的,完全不理解现在深度学习架构下的智驾系统。:深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来
- 来自 水木社区APP v3.5.6
☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Mon Mar 25 00:08:36 2024) 提到:
只能呵呵
【 在 stormywater 的大作中提到: 】
: 大力出奇迹,靠的就是调的一手好参。
: :这是很无知的,完全不理解现在深度学习架构下的智驾系统。:深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来
: - 来自 水木社区APP v3.5.6
☆─────────────────────────────────────☆
wsnsw (我是你是我) 于 (Mon Mar 25 00:20:14 2024) 提到:
滚珠抛进碗中时,轨迹很难预测,但是在碗里终究趋向于稳定平衡,滚一会就停了,还十年,真是瞎扯淡杞人忧天。
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
: 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
: ...................
☆─────────────────────────────────────☆
carbide (carbide) 于 (Mon Mar 25 00:48:54 2024) 提到:
有时候穷尽全力也调不出来
【 在 stormywater 的大作中提到: 】
: 大力出奇迹,靠的就是调的一手好参。
: :这是很无知的,完全不理解现在深度学习架构下的智驾系统。:深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来
: - 来自 水木社区APP v3.5.6
☆─────────────────────────────────────☆
comrades (comrades) 于 (Mon Mar 25 00:53:07 2024) 提到:
屎山雕花?
☆─────────────────────────────────────☆
slimcan (全世界都羡慕我们) 于 (Mon Mar 25 01:15:09 2024) 提到:
迟早要来个大事故。搞得大家都不敢智架
【 在 qtpr (Transcendence constitutes selfhood.) 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
:
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
:
☆─────────────────────────────────────☆
wudashu (wudashu) 于 (Mon Mar 25 01:52:12 2024) 提到:
赞成
指望智驾完全适应现有的交通规则希望不大。
更可能的方式是互相促进,发展车车协同,车路协同,靠高效的交互来提升可用性和可靠性。
从另一个角度看,如果现在的思路真的能解决智驾问题,扩展一下也就能解决其他问题。天网也就可以来了。
【 在 qtpr 的大作中提到: 】
:这是很无知的,完全不理解现在深度学习架构下的智驾系统。
:深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
:所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
:以上这段字对于贵版的一般理解能力而言可能有些高,有空时我举个例子来说。
☆─────────────────────────────────────☆
frosen (WinterSweet) 于 (Mon Mar 25 02:30:16 2024) 提到:
这年头的大模型根本不可能调參
只能改训练数据
训出来是啥就是啥。。。
【 在 stormywater (pp) 的大作中提到: 】
: 大力出奇迹,靠的就是调的一手好参。
:
: 【 在 qtpr 的大作中提到: 】
: :这是很无知的,完全不理解现在深度学习架构下的智驾系统。:深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来
☆─────────────────────────────────────☆
xydingo (每天出来找食吃) 于 (Mon Mar 25 05:38:41 2024) 提到:
你这是完全没明白现在所谓人工智能的工作方式
【 在 wsnsw 的大作中提到: 】
: 滚珠抛进碗中时,轨迹很难预测,但是在碗里终究趋向于稳定平衡,滚一会就停了,还十年,真是瞎扯淡杞人忧天。
: 【 在 qtpr 的大作中提到: 】
: : 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: ...................
--来自微微水木3.5.14
☆─────────────────────────────────────☆
JetLan (耐心等待) 于 (Mon Mar 25 06:34:11 2024) 提到:
智能驾驶到全自动驾驶,还有很长的路。
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的 ...
☆─────────────────────────────────────☆
wsnsw (我是你是我) 于 (Mon Mar 25 06:40:32 2024) 提到:
别看着井里的单一既定模型发呆了,抬头看一看世界科技是怎么爆发的吧
【 在 xydingo 的大作中提到: 】
: 你这是完全没明白现在所谓人工智能的工作方式
☆─────────────────────────────────────☆
topperxin () 于 (Mon Mar 25 06:41:13 2024) 提到:
百度十年磨一剑啊
华为才做了几年啊?
太搞笑了
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
: 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
: ...................
☆─────────────────────────────────────☆
quany (Quany兽医生) 于 (Mon Mar 25 06:50:58 2024) 提到:
人类棋手没少研究早期AlphaGo的bug,成果现在还有用?
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
:
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因
: ..................
发自「今日水木 on ICU监控PC」
☆─────────────────────────────────────☆
siyuan0323 (siyuan0323) 于 (Mon Mar 25 06:57:59 2024) 提到:
解释性差是关键
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
:
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
:
: 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
:
: 以上这段字对于贵版的一般理解能力而言可能有些高,有空时我举个例子来说。
发自「快看水母 于 iPhone SE」
☆─────────────────────────────────────☆
hurrizhu (努力攒分混特快) 于 (Mon Mar 25 07:00:09 2024) 提到:
真 用深度学习啊!?
☆─────────────────────────────────────☆
snowfields (snowfields) 于 (Mon Mar 25 07:20:56 2024) 提到:
你理科比文科更好
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
: 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
: ...................
☆─────────────────────────────────────☆
snowfields (snowfields) 于 (Mon Mar 25 07:22:24 2024) 提到:
那你觉得用什么?
我觉得都是神经网络,难以预测,不可预测
【 在 hurrizhu 的大作中提到: 】
: 真 用深度学习啊!?
☆─────────────────────────────────────☆
frosen (WinterSweet) 于 (Mon Mar 25 07:45:11 2024) 提到:
下棋是个特例
每步的搜索空间和最终结果判定都是有固定规则的
长时间慢慢用随机对弈积累训练数据,最终会越来越接近把所有可能性全部穷举完
但开车可是没法用这种方法穷举训练数据的。。。
既没法穷举每步的搜索空间,也没法判定最终结果好不好,也很难模拟多车交互
只能靠时间久了极累每段路大量用户的驾车行为与结果
所以短时间内肯定各种出问题
长期来看不知道多久能覆盖所有情况
【 在 quany (Quany兽医生) 的大作中提到: 】
: 人类棋手没少研究早期AlphaGo的bug,成果现在还有用?
: 【 在 qtpr 的大作中提到: 】
: : 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: :
☆─────────────────────────────────────☆
deepharma (deepharma) 于 (Mon Mar 25 07:48:34 2024) 提到:
其实是有办法的,例如可以用强化学习进一步优化
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
: 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
: ...................
☆─────────────────────────────────────☆
frosen (WinterSweet) 于 (Mon Mar 25 08:03:01 2024) 提到:
进一步优化同样是个不可解释的大模型
只不过也许参数略少或者判断策略略优
比如从判断某个决策好不好变成判断ab两个决策哪个更优
但依然是不可解释的
【 在 deepharma (deepharma) 的大作中提到: 】
: 其实是有办法的,例如可以用强化学习进一步优化
: 【 在 qtpr 的大作中提到: 】
: : 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: : 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
☆─────────────────────────────────────☆
deepharma (deepharma) 于 (Mon Mar 25 08:06:54 2024) 提到:
我不知道你在说什么,你有逻辑吗?
【 在 frosen 的大作中提到: 】
: 进一步优化同样是个不可解释的大模型
: 只不过也许参数略少或者判断策略略优
: 比如从判断某个决策好不好变成判断ab两个决策哪个更优
: ...................
☆─────────────────────────────────────☆
cheapestnan (cheapestnan) 于 (Mon Mar 25 08:10:04 2024) 提到:
既然这样,这么不成熟,划定一些路段允许自动驾驶,是不是草菅人命?
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
:
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
: ...................
--来自微微水木3.5.14
☆─────────────────────────────────────☆
Pukou (普扣¥ 精诚无间同忧乐|笃爱有缘共死生) 于 (Mon Mar 25 08:10:38 2024) 提到:
说得好
数亿、几十亿条参数的 怎么调?
【 在 stormywater 的大作中提到: 】
: 大力出奇迹,靠的就是调的一手好参。
: :这是很无知的,完全不理解现在深度学习架构下的智驾系统。:深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来
: - 来自 水木社区APP v3.5.6
: ...................
☆─────────────────────────────────────☆
churchmice (落单的候鸟) 于 (Mon Mar 25 08:11:15 2024) 提到:
你是懂的,黑盒调参,属实炼金,压根不知道出来的是啥玩意
还一堆人吹,这才是最可怕的
☆─────────────────────────────────────☆
Wade (闪电侠) 于 (Mon Mar 25 08:24:24 2024) 提到:
智驾用的不是大模型吧,应该是类似三维重建,视点生成这种东西把,这种调整难度没有大模型大
☆─────────────────────────────────────☆
Peugeot888 (福星狮子) 于 (Mon Mar 25 08:40:22 2024) 提到:
人工智能发展的预期是无限逼近人的认知行为能力,所以人能学会的东西理论上讲ai也能学会。人行为的bug不能修正吗?那吃一堑长一智是怎么来的?
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
:
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因
: ..................
发自「今日水木 on LGE-AN00」
☆─────────────────────────────────────☆
lshu (亚心) 于 (Mon Mar 25 08:49:36 2024) 提到:
人的很多认知bug可能就是没办法修正,尤其是偏执的人,我觉得AI更偏执,一旦训练出
有bug的认知,可能需要用超过已有训练数据很多倍的数据才能自我纠正
【 在 Peugeot888 的大作中提到: 】
: 人工智能发展的预期是无限逼近人的认知行为能力,所以人能学会的东西理论上讲ai也能学会。人行为的bug不能修正吗?那吃一堑长一智是怎么来的?
: 发自「今日水木 on LGE-AN00」
☆─────────────────────────────────────☆
Haimdinger (Haimerdinger) 于 (Mon Mar 25 08:50:15 2024) 提到:
我就曾经发过去说现在汽车用的什么网络模型都不敢公布。我认为至少应该向医院的处方一样,把采用的某种模型的架构名称公布出来。
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相...
- 来自 水木说
☆─────────────────────────────────────☆
sqich (sqich) 于 (Mon Mar 25 08:50:56 2024) 提到:
莫非也曾经是调参侠?
☆─────────────────────────────────────☆
thierryhenry (大帝) 于 (Mon Mar 25 09:01:59 2024) 提到:
确实,其实有时候智驾,跟搜索引擎类似,搜索引擎从周围1个联想,扩展到2、3、4个词联想,数据规模大幅提升之后,准确率就大幅提升了
智驾如果雷达观察推测范围,从前面周围1、2圈车,扩展到3、5圈车,很多提前加速、减速,丝滑变速就可以实现,就跟人开车观察比较远,提前做规划一样
☆─────────────────────────────────────☆
Haimdinger (Haimerdinger) 于 (Mon Mar 25 09:05:11 2024) 提到:
现在是各家用的啥算法,啥模型都没有公布。
【 在 Wade 的大作中提到: 】
: 智驾用的不是大模型吧,应该是类似三维重建,视点生成这种东西把,这种调整难度没有大模型大
☆─────────────────────────────────────☆
Haimdinger (Haimerdinger) 于 (Mon Mar 25 09:06:44 2024) 提到:
用的什么算法都没有公布,中药还开个方子呢。
【 在 Wade 的大作中提到: 】
: 智驾用的不是大模型吧,应该是类似三维重建,视点生成这种东西把,这种调整难度没有大模型大
☆─────────────────────────────────────☆
livejt (livejt) 于 (Mon Mar 25 09:06:57 2024) 提到:
在出事故前智驾已经提前几秒退出了,如之奈何?
【 在 slimcan 的大作中提到: 】
: 迟早要来个大事故。搞得大家都不敢智架
☆─────────────────────────────────────☆
san1 (san1) 于 (Mon Mar 25 09:10:30 2024) 提到:
看码农本事了
☆─────────────────────────────────────☆
zuigao (追高) 于 (Mon Mar 25 09:13:30 2024) 提到:
出错概率降低到比人低,就可以了
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
: 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
: ...................
☆─────────────────────────────────────☆
slimcan (全世界都羡慕我们) 于 (Mon Mar 25 09:14:27 2024) 提到:
碰到较真的用户来个抬棺决死战,还管你几秒退出。
【 在 livejt 的大作中提到: 】
: 在出事故前智驾已经提前几秒退出了,如之奈何?
:
☆─────────────────────────────────────☆
lshu (亚心) 于 (Mon Mar 25 09:14:33 2024) 提到:
有这么厉害就好了,如果真能在事故前几秒预知到,别说弹出一堆气囊保护,就是做弹
射都来得及
【 在 livejt 的大作中提到: 】
: 在出事故前智驾已经提前几秒退出了,如之奈何?
☆─────────────────────────────────────☆
ghostcloud (行胜于言) 于 (Mon Mar 25 09:14:43 2024) 提到:
如果有很多小坑呢,如何停,停得对不对
【 在 wsnsw 的大作中提到: 】
: 滚珠抛进碗中时,轨迹很难预测,但是在碗里终究趋向于稳定平衡,滚一会就停了,还十年,真是瞎扯淡杞人忧天。
: 或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
☆─────────────────────────────────────☆
rockdestiny (Rock Destiny) 于 (Mon Mar 25 09:20:23 2024) 提到:
力大飞砖,依赖于特定正确的结论可以淹没掉错误的跑偏的结论
可以玩命投毒,政治经济政治文化意识形态都可以靠歪曲训练资料来做到
☆─────────────────────────────────────☆
livejt (livejt) 于 (Mon Mar 25 09:24:21 2024) 提到:
我看到的是,智驾发现搞不定了,可能会退出让驾驶员接管。如果这样,感觉有点隐患,不知道具体怎么执行程序的。比如会不会提前发出警报让驾驶员足够去接管。我一直认为目前的各种智驾都是L2水平,宣传成自动驾驶是不合适的。我相信软件条款中肯定有免责条款。
弹气囊这种是另外一个安全措施。不过你这个思路也可以,可以建议智驾的程序员搞成你说的这样。
【 在 lshu 的大作中提到: 】
: 有这么厉害就好了,如果真能在事故前几秒预知到,别说弹出一堆气囊保护,就是做弹
: 射都来得及
:
☆─────────────────────────────────────☆
dinggx (丁光训) 于 (Mon Mar 25 09:26:29 2024) 提到:
明白人
而且有些东西是互斥的,没法调到兼顾
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么,是偶发性的样本相关,还是总体相关,或者真正的因果关系。如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
: 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
: ...................
☆─────────────────────────────────────☆
laoshifu (老师傅) 于 (Mon Mar 25 09:29:12 2024) 提到:
我觉着你理解的人工智能等于大数据拟合,属于基于既有数据,预测未来的情况。类似出个上联对下联。实际是模型,数据更多是验证模型的正确与否。按你的说法,假设一个识别小猫的人工程序遇到了一个识别不了的情况,你说改进这个程序很不可控?是不是有点匪夷所思了。
☆─────────────────────────────────────☆
alou (lou) 于 (Mon Mar 25 09:32:40 2024) 提到:
改进了,确实把小猫识别出来了,但是可能转头又把你识别成小狗了
【 在 laoshifu 的大作中提到: 】
: 我觉着你理解的人工智能等于大数据拟合,属于基于既有数据,预测未来的情况。类似出个上联对下联。实际是模型,数据更多是验证模型的正确与否。按你的说法,假设一个识别小猫的人工程序遇到了一个识别不了的情况,你说改进这个程序很不可控?是不是有点匪夷所思了。
☆─────────────────────────────────────☆
springautumn (springautumn) 于 (Mon Mar 25 09:36:10 2024) 提到:
对的,这也就是为什么人们调侃百度的是if else自动驾驶
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么:是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),也不容易手动地修正。因为很难把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度或者召回率,但注意这个“或者”一般是不可兼或,这种所谓的提升很大程度上只是春秋笔法用例而已——由于模型的可解释性很差,简单地调调超参根本没法实质性解决伪正率和伪负率之间的矛盾。
: 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
: ...................
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:40:24 2024) 提到:
哥们,你不懂智驾吧?智驾都是规则性的,狗屁人工智能深度学习。
只有感知用深度学习,通过修改规则就可以控制深度学习的不确定性。
【 在 qtpr 的大作中提到: 】
: 这是很无知的,完全不理解现在深度学习架构下的智驾系统。
: 深度学习这种数据驱动的非参数模型,往往复杂性高、参数量巨大,带来的最大问题是解释性差。人们根本无法把握模型从数据中学到的是什么:是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),也不容易手动地修正。因为很难
: 把问题的原因定位到某个或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度
: ...................
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:40:47 2024) 提到:
懂个毛,智驾是规则性编程,还深度学习,笑死
【 在 mrunmatched 的大作中提到: 】
: 这是懂行的
: 发自「今日水木 on HMA-AL00」
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:41:32 2024) 提到:
听楼主瞎扯,也就感知会用点,甚至也不用
【 在 hurrizhu 的大作中提到: 】
: 真 用深度学习啊!?
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:42:15 2024) 提到:
觉得个毛线。告诉你,你觉得是错误的
【 在 snowfields 的大作中提到: 】
: 那你觉得用什么?
: 我觉得都是神经网络,难以预测,不可预测
☆─────────────────────────────────────☆
AZTU (A_Z) 于 (Mon Mar 25 09:42:18 2024) 提到:
大模型的幻觉问题也没办法根绝
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:42:55 2024) 提到:
明白个毛线。
【 在 dinggx 的大作中提到: 】
: 明白人
: 而且有些东西是互斥的,没法调到兼顾
: 或某几个参数上面;如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。
: ...................
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:44:12 2024) 提到:
对,不是大模型。所谓的小模型,很多模型都不是深度学习,就是普通的规则
【 在 Wade 的大作中提到: 】
: 智驾用的不是大模型吧,应该是类似三维重建,视点生成这种东西把,这种调整难度没有大模型大
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:44:26 2024) 提到:
懂个毛线。
【 在 churchmice 的大作中提到: 】
: 你是懂的,黑盒调参,属实炼金,压根不知道出来的是啥玩意
: 还一堆人吹,这才是最可怕的
☆─────────────────────────────────────☆
YanXiao (再见齐祖) 于 (Mon Mar 25 09:45:37 2024) 提到:
那这种根本没可能做出来自动驾驶
【 在 deepwl 的大作中提到: 】
: 对,不是大模型。所谓的小模型,很多模型都不是深度学习,就是普通的规则
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:47:43 2024) 提到:
自动驾驶级别很多啊。现在所谓智驾就是L1和L2啊。
【 在 YanXiao 的大作中提到: 】
: 那这种根本没可能做出来自动驾驶
☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Mon Mar 25 09:48:08 2024) 提到:
底层用DL,高层用rule,就类似于首贴说的那种手动增加规则打补丁的系统。实际中,这种系统的一致性和可维护性同样很差。而且,从理论上说早已证明了:一阶系统不完备,高阶系统一般不一致。
【 在 deepwl 的大作中提到: 】
: 哥们,你不懂智驾吧?智驾都是规则性的,狗屁人工智能深度学习。
: 只有感知用深度学习,通过修改规则就可以控制深度学习的不确定性。
☆─────────────────────────────────────☆
wsnsw (我是你是我) 于 (Mon Mar 25 09:48:23 2024) 提到:
首先你这比喻对支撑你的观点来说就很不恰当,
因为我们追求的本来就是最终平衡,管他什么坑,
楼主犯的错误就是把现有模型当成唯一坑,其实到处都是坑,现有智驾策略被全盘舍弃另起炉灶都是概率很大的。
【 在 ghostcloud 的大作中提到: 】
: 如果有很多小坑呢,如何停,停得对不对
☆─────────────────────────────────────☆
alou (lou) 于 (Mon Mar 25 09:48:24 2024) 提到:
现在不是吹端到端么?
【 在 deepwl 的大作中提到: 】
: 懂个毛,智驾是规则性编程,还深度学习,笑死
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:49:41 2024) 提到:
是的,所以智驾没啥前途。
现在开始炒作端到端了。就是你说的这种。但我同意你的说法,也没前途。
【 在 qtpr 的大作中提到: 】
: 底层用DL,高层用rule,就类似于首贴说的那种手动增加规则打补丁的系统。实际中,这种系统的一致性和可维护性同样很差。而且,从理论上说早已证明了:一阶系统不完备,高阶系统一般不一致。
☆─────────────────────────────────────☆
deepwl (deepwl) 于 (Mon Mar 25 09:50:36 2024) 提到:
是的,哈哈,就是楼主说的这种。同意楼主的观点,端到端没前途。无人驾驶没前途。
但是看好组合辅助驾驶,也就是现在所谓的智驾。
【 在 alou 的大作中提到: 】
: 现在不是吹端到端么?