- 主题:(更新)激光雷达技术路线被市场抛弃了,小鹏已经表态
现在纯视觉的能力,在自动驾驶这个领域,把tesla也算上,相比人类的上限还是差得远,这也是激光雷达还有用的原因之一。
“真正能发挥激光雷达上限的,那也是tesla走完纯视觉方案之后,有可能可以考虑引入激光雷达,来进一步覆盖更广的corner case。毕竟安全性的目标是可以无限高的。哪怕纯视觉比人安全10倍,引入激光雷达之后能安全100倍也是有价值的。”— 这个非常同意,当视觉能力真的挖掘到极致,就是这么个局面。
【 在 lvsoft 的大作中提到: 】
: 激光雷达的上限比纯视觉高,但没啥意义,因为这个上限很难达到,比纯视觉要难得多。
: 做个比喻的话,激光雷达能达到的上限相当于博士,纯视觉能达到的上限相当于本科。
: 但现在这帮吹激光雷达的厂商的水平,只相当连走路都不会的婴儿,只是坐在婴儿学步车假装自己会走而已。而tesla已经开始高考了。
: ...................
--
FROM 123.116.139.*
用作训练的人类驾驶行为GT,输入只有视觉信息,并没有激光雷达加持也就是无法建立内在联系。
结果就是即使加入激光雷达的数据,也无法吃到scaling law的红利。
【 在 MyWorkLife 的大作中提到: 】
: 显然有输出啊
: 采集数据的时候
: 甭管有多少种信号
: ...................
--
FROM 123.116.139.*
短期内是这样,理论上将来可以用实际数据 + 世界模型进行训练。
理论上那个时候激光雷达也可以作为输入。
【 在 zwordcn 的大作中提到: 】
: 围棋的问题空间是有限的,驾驶则是个开放问题。
: 自动驾驶的端到端,最终要用人类真实的驾驶数据来训练。
--
FROM 123.116.139.*
老马是说比hw4高10倍,B200级别,而且内部人说确实功耗非常。。非常大
【 在 hsv 的大作中提到: 】
: hw4比3好3-5倍,而ai5比hw4好5倍,能达到任意地点的Robotaxi。
: hw3销售2017-2023,设计是时以cnn优化为主;hw4比较短命2024-2025,感觉设计考虑比较仓促;ai5很可能与dojo核心相同,对模型各种支持兼容性会更好,毕竟来源于训练芯片,功能上直接支持Robotaxi,很可能是另一款长寿芯片。
: FSD transfer的确是一个非常重要的考虑因素,年底有单独训练的FSD充分利用高分辨率、高算力优势,估计curb问题比hw3好太多了。谨慎估计transfer会一直有,不包票哈。如果能等到8.8日Robotaxi发布,思路可能更清晰吧。
--
FROM 123.116.139.*
哦,你加上“特斯拉”关键词就搜到了
【 在 vta 的大作中提到: 】
: 自己搜“高速识别广告牌自动急刹”、“遇到尾气刹停”,结果都是号称有激光雷达的品牌,反而没有纯视觉的特斯拉,激光雷达装车上当摆设吗?好在哪里?
:
--
FROM 118.123.33.*
华为问界用华为自己的雷达。
【 在 g0home 的大作中提到: 】
: 没事,华为主推这个 ...
--
FROM 120.244.194.*
加上也没搜到特斯拉在这两个场景下刹停的。明明应该是激光雷达起作用的场景,表现还不如纯视觉。
搜到特斯拉其它情况下刹停的,但这能说明啥?证明加了激光雷达其表现并没有比纯视觉更好就够了,又不需要证明特斯拉永远不会刹停。
【 在 woailp 的大作中提到: 】
: 哦,你加上“特斯拉”关键词就搜到了 ...
--
FROM 124.64.17.*
为啥端到端就要否定激光雷达
--
FROM 111.197.21.*
我理解的端到端,不应该是车的感知硬件数据,直接生成驾驶指令么。车具备感知周围环境的硬件可以是摄像头,也可以是激光雷达,还可以是一切能提供周围信息的其它设备,特斯拉因为成本最初没选择激光雷达,所以他的存量训练数据只有摄像头数据,他基于摄像头数据做端到端天经地义。其它厂商如果有丰富的激光雷达数据,是不是一样可以基于这些数据做端到端?大模型不是数据越多,力量越大么,当然数据也是需要合理标注,真正变成有益的数据
--
FROM 111.197.21.*
你也可以搜“特斯拉撞雪糕桶”,“特斯拉撞箱货”。
特斯拉撞假人的视频那更多了。
【 在 vta 的大作中提到: 】
: 自己搜“高速识别广告牌自动急刹”、“遇到尾气刹停”,结果都是号称有激光雷达的品牌,反而没有纯视觉的特斯拉,激光雷达装车上当摆设吗?好在哪里?
:
--
FROM 223.104.38.*