- 主题:特斯拉的自动辅助驾驶也不靠谱
可以识别静止物体,不代表就可以做策略,因为可能带来一些不必要的刹车,在高速上更危险。
从技术上讲,毫米波雷达的数据量完全不够,激光雷达也不如摄像头。
【 在 ylh0315 的大作中提到: 】
: 我从来都说特斯拉不靠谱。
: 极狐hi据说能识别锥桶和静止物体了。但依然不靠谱。
--
FROM 183.195.95.*
激光雷达还不如摄像头的像素还有数据量、信息量,成本也高。
关键是这么多数据量,怎么提取,怎么稀疏化,用设成策略,不是光一个激光雷达就有用,是要靠后期的域控制器来做类人处理的。
另外就是不同传感器,检测时得到不一样的结果(corner case),策略要更相信谁的问题。90%是摄像头对,10%是毫米波雷达对,那我更详细摄像头还是毫米波雷达呢?怎么判断什么场景下相信摄像头,什么情况下相信毫米波雷达?做判断的信息可能都要摄像头来提供。
所以说马斯克说要去掉毫米波雷达,就是这个原因。
另外现在做自动驾驶的初创公司,基本上用毫米波雷达或者激光雷达来做已经很难融资了,最火的方向还是基于视觉+AI,效果最好,成本最便宜,上限最高,最类人。
【 在 somebody 的大作中提到: 】
: 没有激光雷达
--
FROM 183.195.95.*
我说摄像头90%对只是打个比方。
自动驾驶靠的不是某个传感器,而是传感器融合,再中央处理单元做算法分析、策略和控制。
你那特斯拉的视觉方案中的摄像头和激光雷达比,没有可比性。人也是用眼睛也是视觉,并不需要精确测距测速,靠的是大脑。
目前国产中的小鹏等的自动驾驶方案,和特斯拉比主要是差在处理器、算法、AI训练和全球各种复杂场景的使用数据库的积累。
特斯拉上有8个甚至更多摄像头,并做多个摄像头数据的融合,这个是超过1个激光雷达的。当然你也可以使用多个激光雷达,但是成本会过高,另外突出对汽车外型美观及风阻有影响。
同时激光雷达没法识别车道线、转弯箭头、文字、红绿灯等关键信息,会导致只用激光雷达不够。意思就是说,你还是要用摄像头——如果你已经用了摄像头了,并靠摄像头实现了效果,那为什么还要用激光雷达呢?
国内之所以之前没有上视觉方案,就是因为刚才我说的处理器、算法、AI训练和全球各种复杂场景的使用数据库的积累,这4点要求比较高,初创公司没有上车测试数据而没法做神经网络训练,整车厂压根没有这些技术的开发能力。所以大部分初创公司走激光雷达是走弯道。
从去年开始自动驾驶的初创公司走视觉方案才能融到资。
我的看法也是一家之言,但还是在技术方案讨论范畴内。您不要随便说什么特斯拉抠门或者实力不够,只是一个方案选择问题。
【 在 rexxie 的大作中提到: 】
: 你说90%摄像头对就已经没谱了,mems的激光雷达除了恶劣天气。fov 小,可靠性甩视觉10条街,
: 用来做正面障碍检测挺好的,特斯拉抠门然后实力又不济。
:
--
FROM 183.195.95.*
特斯拉的摄像头,是靠对前面物体的一帧的图像尺寸大小,和上一帧的图像尺寸大小做比较来做距离判断的。
另外特斯拉的摄像头是完全可以识别雪糕筒、行人和栅栏的,只是没有做策略刹车,这个我猜测可能是避免过多刹车情况出线。之前小鹏也是类似的情况撞上雪糕筒了。
所以关键不是有没有探测到,而是探测到了后怎么处理的问题。
【 在 somebody 的大作中提到: 】
: 摄像头没有深度信息,激光雷达能够知道前方障碍物距离,是能够做到刹车的,摄像头不知道。
--
FROM 183.195.95.*
特斯拉的摄像头检测距离,是靠一帧数据中对目标的图像尺寸大小和上一帧的图像尺寸大小做比较并用神经网络训练来实现的。并不是双目。
【 在 oBigeyes 的大作中提到: 】
: 双摄像头产生立体视觉
:
--
FROM 183.195.95.*
目前基本上是后融合,每个毫米波雷达、激光雷达、摄像头的自带处理器做自己的算法处理,输出结果,就会有置信度的问题。前融合相当于把各个传感器的ADC采集到的原始数据高速传到中央计算单元(专业术语是域控制器)来分析,数据量会大很多个数量级,而且如果是不同种传感器,数据的形式、算法和knowhow完全不一样,需要对不同传感器的底层数据有深刻的理解,然后再做融合和策略。
前融合更难,商务上也需要打通(一般做融合、策略和做传感器不是同一类公司),当然做好了效果会更好,另外节省了每个传感器的处理器的成本,总成本大幅度降低。
前融合是概念和方向,目前很热!
【 在 juinjwst 的大作中提到: 】
: 似乎没有这么简单。我读了一篇分析文章,说特斯拉以前是靠post-fusion,也就是先把单个摄像头的数据进行分析,然后聚合结果。现在是做front-fusion,也就是先聚合多个摄像头的影像,然后再喂给ai去理解。聚合多个摄像头的结果就类似双目/多目了。
:
--
FROM 183.195.95.*
我用的特斯拉是2019年买的,应该是hw3,不到100万像素。
就我使用的经验,最危险的2次还是完全依赖AP后,在高速路上遇到修路路障的情况,就像主题提到的情况。
但是我很确定,不是没有检测到或者识别到修路路障(为此,我在高速上测试过几次),但确实他也不会避障(很近的时候,我感觉速度好像还是没有下降,就踩刹车了)。猜测还是训练样本量不够,或者策略的问题。
其他情况没出现过问题,表现令人满意。出差5个小时内的高速是利器。
当然我不知道hw4或者更新的处理器后,会不会更好一些。
听说特斯拉是在开发4D毫米波雷达,比大陆的408会更先进,但依照我的理解,最先进的4D成像毫米波雷达的效果(数万点云)和激光雷达(2-3百万)或摄像头(单个上百万)还是没法比,这些数据来了,怎么和摄像头融合并做策略还是一个问题。
最终还是个AI和策略的问题。类似于人开车。
【 在 GeneralMilk 的大作中提到: 】
: 好的激光雷达(注意是好的)在视觉算法不够强的前提下可以给出更准确的深度信息。特斯拉另外一个问题是hw3的摄像头太烂了,720p,全靠视觉算法和数据。hw4升级摄像头,同时处理器肯定也要升级,推理的深度精度肯定会有提升。hw4里继续没有lidar这个拐棍,但是要有hd radar了。
--
FROM 183.195.95.*