那我们就讨论下天花板问题。
你觉得激光雷达在哪里可以体现出它的天花板比视觉更高?
比如,摄像头用的是400-700nm可见光谱成像,激光雷达用的是905nm近红外成像。
对摄像头有干扰的雨雾沙等微粒,近红外也一样存在。
其次,激光雷达是一束线扫描一个面,摄像头是透镜投影直接感知一个面,从光学原理上来说两者也是完全一样,都遵循成像原理。
最后,激光雷达是主动光源,通过测量ToF得到深度信息。摄像头是被动(环境光照明)+主动(开大灯)成像,被动成像的好处是对外界不存在干扰,而主动成像如果每辆车都用,那就相当与每辆车都开着大灯。虽然激光雷达波束聚焦,还可以使用编码来缓解,但你也无法确保在这种环境下激光雷达的探测结果一定不存在干扰。此外最后一点,既然也有主动光源,摄像头是可以让像素也具有ToF感知能力的,所以其实现在就有ToF CMOS Sensor,一颗摄像头同时给出图像和深度场。
激光雷达唯一确定优于摄像头的地方,那就是探测距离。这是激光的特性和部件的体积决定的,但这两点只能说优势,依然不能说天花板就一定更高。我们已经见过手机的摄像头是怎么淘汰单反的故事了。摄像头的深度场也一样可以用激光+散点的形式照明(就跟faceid的结构光一样),部件的灵敏度也可以继续提升下去。虽然同样的技术也可以帮助激光雷达获得更大的探测距离,但who care?摄像头如果能给出200米的深度场,激光雷达就算能探测10公里也没意义了。
最后,虽然我说了带深度场的ToF Sensor,但特斯拉是连这个都不会去用的。如果你仔细看了这篇演讲,你会发现特斯拉已经用摄像头形成了完整的体系。你认为的空间感知问题对现在的fsd来说已经几乎不存在了。截图这个效果,看起来很像是激光雷达的点云吧?但其实是3颗摄像头给出的。
【 在 ECUCoder 的大作中提到: 】
: 特斯拉在视觉感知这块确实很牛,无奈目前的视觉感知能力天花板太低,随着激光雷达逐步上车,不出三年,特斯拉的量产自动驾驶能力会被一众新车型吊打。
: 当然,特斯拉现在上激光雷达也不晚,就怕视觉一条道走到黑。
:
--
FROM 180.158.55.*