近红外和可见光没啥大的物理区别啊,摄像头要是拿掉近红外滤片,能直接看到近红外,加个近红外带通滤波,那直接变成NIR camera了。摄像头上的ToF Sensor就是用NIR做的。
远光就瞎首先是自动驾驶天然需要考虑的问题,不仅仅要考虑远光瞎了,还要考虑各种大车遮挡等等问题,遮挡激光雷达也需要处理的,所以你不能假设可以依赖一个永远不会消失永远准确的信号。何况激光雷达普及之后,到处都是主动激光,我不认为激光雷达就不存在这个瞎的问题。
然后,人眼是远弱于CMOS sensor的,手机可以对着太阳光逆光拍还照样看清暗部细节,人眼就不行。我这里附一张4年前手机拍摄的效果。注意这里用了HDR+,tesla对于视频是有一大堆预处理,去修正曝光,模糊,甚至安装过程中对准误差等问题的。tesla是否应用了HDR提升摄像头的宽容度我不清楚,但这张照片至少可以展示一个老手机的摄像头的逆光能力是在什么档次上。
至于你的第二个问题,讲真建议还是看完tesla ai day先吧...人家花了很大的篇幅介绍了他们是怎么解决corner case的。你可以看看我下面上传的截屏,人家的训练场景里面有一头鹿出现在大马路上,有高速上一男一女一狗在跑步...tesla已经把实际场景识别,分解,再重新渲染投影回去了。所以他可以任意修改场景去支持各种奇葩案例。而且这些跟深度学习是否认得一个奇葩物体也没关系。深度学习是分很多层的,前面几层就是多目视觉转换为深度信息而已,它不认得也一样知道这里有个物体。
【 在 ECUCoder 的大作中提到: 】
: 基于TOF原理的深度摄像头与激光雷达的能力(包括距离与分辨率)不可同日而语,这是不同波长光的物理特性决定的。
: 基于其它原理的深度摄像头就更不靠谱了,对面车来几束远光直接就瞎了(这个人眼可以直观感受)。
: 深度摄像头用在玩具上,家用电器上,小机器人上都挺有前途的,自动驾驶汽车真不行,性能严重不足(当然,作为辅助驾驶还是有用的)。
: ...................
--
修改:lvsoft FROM 180.158.55.*
FROM 180.158.55.*