- 主题:特斯拉的自动辅助驾驶也不靠谱
应该是没有更新occupancy network吧?如果有了这个,无论障碍物是多陌生都应该能识别
【 在 pigflying 的大作中提到: 】
: 隔离墩识别不了
--
FROM 114.254.2.*
当然是所有情况了。司机是安全的第一责任人。waymo除外。
【 在 WU1ooxzj 的大作中提到: 】
: 辅助驾驶的边界在哪里?精确一点,哪些情况司机可以不管,哪些情况就要管?还是说所有情况都是司机来管?
--
FROM 114.254.2.*
occupancy network就是解决之类问题的。估计是还没更新
【 在 lovefreewind 的大作中提到: 】
: 外国没有隔离墩,所以训练集里面没有隔离墩图片,没见过所以没识别不了。
--
FROM 114.254.2.*
超声波的驻车雷达吧,长响就是要蹭到了。这个问题很多车都有,报警延迟
【 在 TimeAndRiver 的大作中提到: 】
: 特斯拉的距离报警是怎样的?
: 回告诉用户还有多少米吗
--
FROM 114.254.2.*
你说的应该是路锥吧
【 在 diaochong 的大作中提到: 】
: 可以识别吧,我看平时开车就有隔离墩的图标显示
--
FROM 114.254.2.*
对付99.99%的路况足够了。但要没这东西,纯靠必须见过才能识别,那corner case就太多了。
【 在 lovefreewind 的大作中提到: 】
: 纯视觉的东西还没那么靠谱。
--
FROM 114.254.2.*
waymo呢?
【 在 kingsberg 的大作中提到: 】
: 目前唯一的一个L3级别的商用智能驾驶系统,是奔驰的
: 仅限于高速,出了事故奔驰负责
: 特斯拉法律意义上只是一个L2系统
: ...................
--
FROM 114.254.2.*
似乎没有这么简单。我读了一篇分析文章,说特斯拉以前是靠post-fusion,也就是先把单个摄像头的数据进行分析,然后聚合结果。现在是做front-fusion,也就是先聚合多个摄像头的影像,然后再喂给ai去理解。聚合多个摄像头的结果就类似双目/多目了。
【 在 hawkabc 的大作中提到: 】
: 特斯拉的摄像头检测距离,是靠一帧数据中对目标的图像尺寸大小和上一帧的图像尺寸大小做比较并用神经网络训练来实现的。并不是双目。
--
FROM 220.195.75.*
特斯拉的前融合都是自己做,反正也不用radar/lidar,商务成本为0.
【 在 hawkabc 的大作中提到: 】
: 目前基本上是后融合,每个毫米波雷达、激光雷达、摄像头的自带处理器做自己的算法处理,输出结果,就会有置信度的问题。前融合相当于把各个传感器的ADC采集到的原始数据高速传到中央计算单元(专业术语是域控制器)来分析,数据量会大很多个数量级,而且如果是不同种传感器,
: 数据的形式、算法和knowhow完全不一样,需要对不同传感器的底层数据有深刻的理解,然后再做融合和策略。
: 前融合更难,商务上也需要打通(一般做融合、策略和做传感器不是同一类公司),当然做好了效果会更好,另外节省了每个传感器的处理器的成本,总成本大幅度降低。
: ...................
--
FROM 220.195.75.*