- 主题:特斯拉的自动辅助驾驶也不靠谱
你是弱智吗?凡事辅助驾驶都需要司机接管,不接管都会死,你不接受这点买个屁啊,跟以为它能上天有啥区别。
【 在 a9udn9u 的大作中提到: 】
: 你是蛔虫吗?这么喜欢猜我怎么想的?你怎么不说我买的时候以为它能开上天呢?
:
--
FROM 174.249.131.*
目前基本上是后融合,每个毫米波雷达、激光雷达、摄像头的自带处理器做自己的算法处理,输出结果,就会有置信度的问题。前融合相当于把各个传感器的ADC采集到的原始数据高速传到中央计算单元(专业术语是域控制器)来分析,数据量会大很多个数量级,而且如果是不同种传感器,数据的形式、算法和knowhow完全不一样,需要对不同传感器的底层数据有深刻的理解,然后再做融合和策略。
前融合更难,商务上也需要打通(一般做融合、策略和做传感器不是同一类公司),当然做好了效果会更好,另外节省了每个传感器的处理器的成本,总成本大幅度降低。
前融合是概念和方向,目前很热!
【 在 juinjwst 的大作中提到: 】
: 似乎没有这么简单。我读了一篇分析文章,说特斯拉以前是靠post-fusion,也就是先把单个摄像头的数据进行分析,然后聚合结果。现在是做front-fusion,也就是先聚合多个摄像头的影像,然后再喂给ai去理解。聚合多个摄像头的结果就类似双目/多目了。
:
--
FROM 183.195.95.*
特斯拉的前融合都是自己做,反正也不用radar/lidar,商务成本为0.
【 在 hawkabc 的大作中提到: 】
: 目前基本上是后融合,每个毫米波雷达、激光雷达、摄像头的自带处理器做自己的算法处理,输出结果,就会有置信度的问题。前融合相当于把各个传感器的ADC采集到的原始数据高速传到中央计算单元(专业术语是域控制器)来分析,数据量会大很多个数量级,而且如果是不同种传感器,
: 数据的形式、算法和knowhow完全不一样,需要对不同传感器的底层数据有深刻的理解,然后再做融合和策略。
: 前融合更难,商务上也需要打通(一般做融合、策略和做传感器不是同一类公司),当然做好了效果会更好,另外节省了每个传感器的处理器的成本,总成本大幅度降低。
: ...................
--
FROM 220.195.75.*
好的激光雷达(注意是好的)在视觉算法不够强的前提下可以给出更准确的深度信息。特斯拉另外一个问题是hw3的摄像头太烂了,720p,全靠视觉算法和数据。hw4升级摄像头,同时处理器肯定也要升级,推理的深度精度肯定会有提升。hw4里继续没有lidar这个拐棍,但是要有hd radar了。
【 在 hawkabc 的大作中提到: 】
: 我说摄像头90%对只是打个比方。
: 自动驾驶靠的不是某个传感器,而是传感器融合,再中央处理单元做算法分析、策略和控制。
: 你那特斯拉的视觉方案中的摄像头和激光雷达比,没有可比性。人也是用眼睛也是视觉,并不需要精确测距测速,靠的是大脑。
: ...................
--
FROM 174.249.131.*
主要是我没那么无聊再去试试别的店的销售是不是也这样,所以我只能举例这一个。
【 在 GeneralMilk 的大作中提到: 】
: 好吧,你这个销售猛。只能说这辅助驾驶能力也太强了,这种销售都活着。
--
FROM 120.245.124.*
我用的特斯拉是2019年买的,应该是hw3,不到100万像素。
就我使用的经验,最危险的2次还是完全依赖AP后,在高速路上遇到修路路障的情况,就像主题提到的情况。
但是我很确定,不是没有检测到或者识别到修路路障(为此,我在高速上测试过几次),但确实他也不会避障(很近的时候,我感觉速度好像还是没有下降,就踩刹车了)。猜测还是训练样本量不够,或者策略的问题。
其他情况没出现过问题,表现令人满意。出差5个小时内的高速是利器。
当然我不知道hw4或者更新的处理器后,会不会更好一些。
听说特斯拉是在开发4D毫米波雷达,比大陆的408会更先进,但依照我的理解,最先进的4D成像毫米波雷达的效果(数万点云)和激光雷达(2-3百万)或摄像头(单个上百万)还是没法比,这些数据来了,怎么和摄像头融合并做策略还是一个问题。
最终还是个AI和策略的问题。类似于人开车。
【 在 GeneralMilk 的大作中提到: 】
: 好的激光雷达(注意是好的)在视觉算法不够强的前提下可以给出更准确的深度信息。特斯拉另外一个问题是hw3的摄像头太烂了,720p,全靠视觉算法和数据。hw4升级摄像头,同时处理器肯定也要升级,推理的深度精度肯定会有提升。hw4里继续没有lidar这个拐棍,但是要有hd radar了。
--
FROM 183.195.95.*
AP的逻辑是不会为躲避障碍而偏出车道,所以除非它认定车道没了(概率问题),会继续撞上锥桶。fsd beta在这个问题上好很多,但是也都是最后时刻才变道,跟人比差不少。
【 在 hawkabc 的大作中提到: 】
: 我用的特斯拉是2019年买的,应该是hw3,不到100万像素。
: 就我使用的经验,最危险的2次还是完全依赖AP后,在高速路上遇到修路路障的情况,就像主题提到的情况。
: 但是我很确定,不是没有检测到或者识别到修路路障(为此,我在高速上测试过几次),但确实他也不会避障(很近的时候,我感觉速度好像还是没有下降,就踩刹车了)。猜测还是训练样本量不够,或者策略的问题。
: ...................
--
FROM 174.249.131.*
这个碰到大面积均匀材质障碍物就GG了,例如白色大货,而激光雷达毫无压力
【 在 hawkabc 的大作中提到: 】
: 特斯拉的摄像头,是靠对前面物体的一帧的图像尺寸大小,和上一帧的图像尺寸大小做比较来做距离判断的。
: 另外特斯拉的摄像头是完全可以识别雪糕筒、行人和栅栏的,只是没有做策略刹车,这个我猜测可能是避免过多刹车情况出线。之前小鹏也是类似的情况撞上雪糕筒了。
: 所以关键不是有没有探测到,而是探测到了后怎么处理的问题。
: ...................
--
FROM 139.159.170.*
我也觉得视觉是趋势,但是非要把激光雷达排除,你得先有这个能力,
tesla就是这个问题,现阶段没这个能力,可不是把用户不当回事?
【 在 hawkabc 的大作中提到: 】
: 我说摄像头90%对只是打个比方。
: 自动驾驶靠的不是某个传感器,而是传感器融合,再中央处理单元做算法分析、策略和控制。
: 你那特斯拉的视觉方案中的摄像头和激光雷达比,没有可比性。人也是用眼睛也是视觉,并不需要精确测距测速,靠的是大脑。
: ...................
--
FROM 222.71.81.*