- 主题:(更新)激光雷达技术路线被市场抛弃了,小鹏已经表态
lidar短期内还是主流,毕竟用户心智也需要慢慢教育。研发团队内部分歧也很大,但12.3.6应该让他们趋同…
端到端也不是一蹴而就的,比如小米先玩泊车e2e、理想先玩左右转e2e,hw多条腿同时走,积累经验慢慢切换技术路线的,总之除hw外过渡是漫长的。
全球来看,tsl会授权给美国本土车企,hw、momenta、mibleye、小鹏、长城、大疆会授权给其他车企用,国内理想、蔚来、小米等主机厂也有自己的一套。
马斯克说没几十亿别玩,这就要看hw4在5倍参数下的表现了,如果就是数据与算力游戏,国内超过3E算力的目前就hw、商汤,其他车企未知,蔚来说要建全球领先的超算中心…
ps:高中生李想看完老马直播就组建e2e团队了,一定程度上弥补了之前技术路线分叉造成的落后,此时除小鹏早已经布局,其他车企还在观望。总之今年下半年跟当初无图一样,不宣传端到端就好像落后了一样…
ps2: 何小鹏这次碰瓷,还是为了挽回上半年被hw吊打的局面,现在狂吹5.2.0,他不可能不知道端到端只认数据的,diss fsd不了解路况这种外行话,一切都是为了教育用户心智。
【 在 djkstra 的大作中提到: 】
: 速腾聚创早盘暴跌65%
--
修改:hsv FROM 114.254.3.*
FROM 114.254.3.*
但凡理解端到端的,都不会再提lidar和三轮、电蹦子这些外行话…
也许端到端不是终点,但一定是必经之路。至于效果,肯定受限于数据和算力,但车企养了那么多koc和营销,肯定大家效果都“差不多”,远远“吊打”tsl…
【 在 djkstra 的大作中提到: 】
: 嗯,这个说法比较到位
:
--
FROM 114.254.3.*
lidar是在bev+transformer、occ之前的方案,那是在没有答案可抄的年代的方案,对这些厂商还是很有必要的(因为那个年代最符合直觉的方案就是多传感器融合),当学会tansformer、occ以后自然就没啥了。
端到端没开源,以至于国内对端到端最大的共识就是没有共识,目前存在两个流派:已有感知模块接可导规控,适合快速落地;再就是英伟达倡导的内部重构,不再依赖原有感知模块,黑盒不太好落地,总之方案有很多种,但一定是后者这种不需要白名单、不需要标注数据的成主流。
目前tsl的5倍参数模型计划,说明大模型的scaling law依然有效,最终性能强的一定是车队多、且算力大的胜出…你看有些团队甚至用到了测试集来作假来吊打chat-gpt……
【 在 djkstra 的大作中提到: 】
: 我觉得吹激光雷达只是后发厂家的策略,估计最后他们都是端到端,
: 因为做端到端的前提是你车子要有一定保有量来做训练,所以他们只能靠激光雷达这个噱头玩意儿先把车子的保有量做起来再说
:
--
FROM 114.254.3.*
微博已经high了两轮了。
【 在 morrischen12 的大作中提到: 】
: 何小鹏的特斯拉评估报告出来了没有?
: 发自「快看水母 于 把时光,都炖香」
--
FROM 114.246.239.*
建议你观察一下工程落地。
如果还不理解,你就是对的。
【 在 bianju 的大作中提到: 】
: 你把几个概念混淆在一起了,端到端不代表必然是视觉系统,一样可以用雷达,权重问题而已,而不是非此即彼
--
FROM 114.246.239.*
至少大众入股,可能有希望。
【 在 flybox 的大作中提到: 】
: 小鹏的智驾会授权给其他车企?
:
--
FROM 114.246.239.*
你说的是alphazero类似的强化学习,目前智能驾驶还达不到这个仿真水平,之前用nerf,分辨率很差,今年用3dgs,但我们的非交通项目实测效果一般般,demo还行,我个人感觉做智能驾驶仿真还远远不够。可能他们也用了diffusion,但也仅限于预测下一秒,或几秒,应该不是用来生成仿真场景的。用来做策略学习远远不够的。你看12.4.1-2版本的说明就知道,仿真最多来生成corner case,模型还是依赖于真实驾驶数据。
只有这一代端到端玩明白了,待仿真技术成熟以后,下一代智能驾驶就没有人类司机什么事了,什么lidar、radar全给我上,炸弹来了、火山爆发、地震、楼塌了,你想不到的场景都能绕开…
【 在 snwofox303 的大作中提到: 】
: 你对端到端理解是错误的。端到端可不是通过揣摩人类的驾驶习惯和行为。端到端就如同当初的围棋ai,只需要告诉它围棋的基本规则,剩下的一切都靠它自我对弈和学习,根本不需要任何的人类指导,定式以及棋谱之类的东西。这些对ai来说都是噪音
:
: - 来自 水木说
--
FROM 114.246.239.*
哈哈,这次12.4.2略搞笑,跟我自己训练模型有点像:面多了加水、水多了加面,按下葫芦又起瓢。但结果没让人失望,只要规模效应没到,hw3达到L3希望就很大。
更深更大的模型、更多的数据、更高的算力,简单粗暴,ai5看起来是未来,准备换车吧…
【 在 Vas 的大作中提到: 】
: 牛逼专业了,佩服,每次看你的帖子学习很多
: - 来自 水木社区APP v3.5.7
--
FROM 114.246.239.*
我调研过,毫米波雷达目前还是输出稀疏的2D点云(一个目标一个点),毫米波经目标反射,内部经过处理是距离-多普勒数据,靠dbscan聚类输出xy、v、rcs值(可以认为是响应强度);为了去噪往往会过滤掉静止目标。23年之前是2D点云通过1x1之类的layer融合到可见光特征以后进行OD操作,网络学到的是运动目标的运动位置信息,比后融合要好一些;23年之后dnn应用到距离-多普勒特征,一些特殊的卷积之类的操作以后,后续都是较常规OD用的dnn layer了,往往和可见光融合在一起以后接多个输出头,模型理论上学到更多的信息,这个实战从传感器角度感觉应该会不错,毫米波的物理特性,雾天比各种光强的不是一星半点,数量级的优势…
鼓吹端到端的,都未必理解你最后一句噪声数据的含义,其他人就更更费劲了,老实说本站能这么理解的人不多,这个从去年我就开始这么说了,没几个人能理解到。
目前hw3加了数据就能解决12.4.1飘车道的问题,看起来新的模型评估方法需要突破,目前已知的是12.3.6会与v11最后一版对比评估,但人工干预稀少以后使得模型评估变难了,评估方法突破之后就是另一个飞跃了。
【 在 zwordcn 的大作中提到: 】
: 毫米波成像不了解。
: 但从根本上讲,道路交通是围绕人的,如果自动驾驶AI是对人类的模仿,那么神经网
: 络的输入就应该只参考人类的感知。
: ...................
--
修改:hsv FROM 218.108.210.*
FROM 218.108.210.*
hw4比3好3-5倍,而ai5比hw4好5倍,能达到任意地点的Robotaxi。
hw3销售2017-2023,设计是时以cnn优化为主;hw4比较短命2024-2025,感觉设计考虑比较仓促;ai5很可能与dojo核心相同,对模型各种支持兼容性会更好,毕竟来源于训练芯片,功能上直接支持Robotaxi,很可能是另一款长寿芯片。
FSD transfer的确是一个非常重要的考虑因素,年底有单独训练的FSD充分利用高分辨率、高算力优势,估计curb问题比hw3好太多了。谨慎估计transfer会一直有,不包票哈。如果能等到8.8日Robotaxi发布,思路可能更清晰吧。
【 在 Vas 的大作中提到: 】
: 我在考虑趁着允许FSD transfer,把我的model y换成model x顺便把HW3升级成HW4,HW4值不?
: - 来自 水木社区APP v3.5.7
--
FROM 218.108.210.*