- 主题:余承东:纯视觉方案需要激光雷达兜底
你到底懂不懂啊
你看到的摄像头数据
是通过液晶屏呈现给你的
机器感受到的数据和你通过液晶屏看到的是同一回事吗
激光雷达雨雪天气一样抓瞎,而且分辨率与摄像头差的十万八千里
【 在 clyu1981 () 的大作中提到: 】
: 扯。
: 我看了看车上那个摄像头,晚上识别能力下降非常明显。
: 激光雷达分辨率不高但够了,拍出的点云能看出车 人的轮廓,扔给人看分辨都不是问题,深度学习也没有问题。
: 【 在 TimeAndRiver 的大作中提到: 】
--
FROM 183.212.160.*
当然一回事。
激光雷达的分辨率并不低了,关键很可靠。
雨雪比晚上出现的概率低多了。
【 在 TimeAndRiver 的大作中提到: 】
: 你到底懂不懂啊
: 你看到的摄像头数据
: 是通过液晶屏呈现给你的
: ...................
--
FROM 180.213.172.*
视觉的上限太低。
现在高配车都增加激光雷达提升感知准确性。
【 在 ruige0822 的大作中提到: 】
: 还毫米波雷达,开过辅助驾驶吗 你还停留在2年前技术
: 有毫米波雷达老有幽灵刹车,你没经历过吧 那玩意更不安全,激光雷达为保护人眼 功率都被限制,200米 10%反射,所以车企全部转向视觉 包括华为。
: 以后激光雷达就是用AEB兜底的
: ...................
--
FROM 180.213.172.*
不是 现在头部车企在前融合是把激光雷达权重降低了
别自己想 看看车企怎么做的
【 在 clyu1981 的大作中提到: 】
: 视觉的上限太低。
: 现在高配车都增加激光雷达提升感知准确性。
--
FROM 111.203.196.*
基本判定你啥都不懂
你用你的肉眼来判断数据是否可用
【 在 clyu1981 () 的大作中提到: 】
: 当然一回事。
: 激光雷达的分辨率并不低了,关键很可靠。
: 雨雪比晚上出现的概率低多了。
: 【 在 TimeAndRiver 的大作中提到: 】
--
FROM 183.212.160.*
车企的配置表很明确。
低配纯视觉,高配上激光雷达。
mobileye这个视觉方案供应商,从低到高的方案是纯视觉 1个激光雷达 3个雷达。
【 在 ruige0822 的大作中提到: 】
: 不是 现在头部车企在前融合是把激光雷达权重降低了
: 别自己想 看看车企怎么做的
--
FROM 180.213.172.*
你才是啥都不懂。
训练素材都是人眼判定的。你都分辨不了还指望机器。
【 在 TimeAndRiver 的大作中提到: 】
: 基本判定你啥都不懂
: 你用你的肉眼来判断数据是否可用
--
FROM 180.213.172.*
对,外行人总是乱用概念还犟得很
第一个端就是输入数据的概念,激光雷达的数据一样是数据,和摄像头的数据在模型来看是一样的
【 在 MachvPicchv 的大作中提到: 】
: 端到端不等于纯视觉
--
FROM 218.247.161.*
视觉,激光,微波,都受环境限制。车不仅要能感知环境,还要感知自身条件和能力,提醒驾驶员及时介入
【 在 Acui 的大作中提到: 】
: : 快科技9月28日消息,今日上午,华为余承东和知名主持人马东举行了访谈,在谈到华为乾崑智驾ADS 3.0的时候,
--
FROM 36.98.137.*
码农的编码可以修改,发现问题可以调试。
端对端出了问题你能理解吗?你改的了吗?
靠什么数据训练去控制,这个方案有在其他领域的辅助应用吗?
为啥要在公共交通领域做实验。
【 在 lalula 的大作中提到: 】
: 激光雷达连训练数据都没有
: 只是码农硬编码的代价
:
--
FROM 111.198.53.*