你提到的东西里面,一个是数据量(你没细说,估计是特斯拉摄像头的数据拼各种感知器的数据本身就天然不占优势,二是特斯拉国内的数据获取可能有点问题,能不能训练国内本地模型存疑),另一个模型参数,这两个才是能侧面说明模型先进性的东西,也只是侧面。算是从吹端到端(金属)的水平,进化到了吹奥氏体的水平。
【 在 TimeAndRiver 的大作中提到: 】
: 端到端,一端是摄像头输入的视频,另一端是驾驶决策,中间是AI大模型,参数十亿计
: 传统模式是摄像头或雷达数据进来,先识别道路和交通参与者,建立三维模型,然后输入到决策模块,这个模块就是工程师写的一大堆ifelse规则,这些规则显然每一条只能根据有限若干参数决策,跟大模型没法比,反映到驾驶体验就是比较机械卡顿,不像端到端丝滑
--
FROM 124.207.9.*