- 主题:再科普一下现有智驾的问题
用不着气急败坏
有理说理
不要东拉西扯
比如,我劝你多读点书,多看点工业界的发展动向,别坐在家里闭门猜想
【 在 qtpr 的大作中提到: 】
: 你别扯淡了,你不懂技术
--
FROM 36.152.167.*
呵呵
【 在 TimeAndRiver 的大作中提到: 】
: 用不着气急败坏
: 有理说理
: 不要东拉西扯
: ...................
--
FROM 111.167.211.*
你也不想想看
为啥国内的智驾要一个一个城市的开?
通用型的端到端模型根本不管你哪个城市的
除非是不同的国家,不同的驾驶规则与习惯,每一个国家可能需要不同的训练
但是同一个国家,同一套规则
为啥还要一个一个城市的开?
想想就明白了
【 在 qtpr 的大作中提到: 】
: 呵呵
--
FROM 36.152.167.*
呵呵
【 在 TimeAndRiver 的大作中提到: 】
: 你也不想想看
: 为啥国内的智驾要一个一个城市的开?
: 通用型的端到端模型根本不管你哪个城市的
: ...................
--
FROM 111.167.211.*
抖音看多了,哈哈哈
【 在 qtpr 的大作中提到: 】
: 这是哪个白痴告诉你的
:
--
FROM 149.199.100.*
唉,奈何这个“智驾”上路,周围的人和车何其无辜?被裹挟了。
【 在 qtpr 的大作中提到: 】
: 不断增加训练数据并不必然能不断提高深度学习和大模型的整体性能。事实上这类基于梯度的数据驱动模型的可解释性很差,没有人能预见新的训练数据会对模型之前“学到”的信息造成何种潜在影响。有时候,这种影响是剧烈而负面的,即所谓的“灾难性遗忘”。虽然最近大模型在文本理解和生成方面取得了明显的进步,但“幻觉”问题依然是普遍存在的,目前看不到有效的根治办法。一段由AI生成的文本是一本正经的胡说八道,也许问题不大。但是,一个由“智驾”控制的汽车操作序列,也是一本正经的胡说八道呢?呵呵。奉劝智驾吹们收敛一些。如果你们想自己当小白鼠,没人阻拦。但不要误导他人。
: An Empirical Study of Catastrophic Forgetting in Large Language Models During Continual Fine-tuning arXiv:2312.10549
: Yun Luo, Zhen Yang, Fandong Meng, Yafu Li, Jie Zhou, Yue Zhang
: ...................
--
FROM 149.199.100.*