- 主题:tesla ai day
好像有报道路上看到特斯拉的激光雷达试验车
【 在 ECUCoder (Engineer) 的大作中提到: 】
: 特斯拉在视觉感知这块确实很牛,无奈目前的视觉感知能力天花板太低,随着激光雷达逐步上车,不出三年,特斯拉的量产自动驾驶能力会被一众新车型吊打。
: 当然,特斯拉现在上激光雷达也不晚,就怕视觉一条道走到黑。
--
FROM 101.86.77.*
fusing肯定是未来
视觉测距稳定性和精度比激光差太多了
【 在 lvsoft (Lv(The Last Guardian)) 的大作中提到: 】
: 不是,我的意思是,如果两套方案的天花板都没本质区别,那为啥 激光雷达 + 视觉就 > 单视觉啊,
: 你应该也有体会,工程上有句话叫多个香炉多只鬼,更复杂的设计如果不能带来足够具体的好处,那就是扣分项。
: 所以我想讨论的就是激光雷达跟视觉各有所长,这个各有所长的长具体体现在什么地方。
: ...................
--
FROM 101.86.77.*
精度是一方面,稳定性又是一方面,视觉测距的稳定性差不少。
【 在 hsv 的大作中提到: 】
: 精度满足一定要求就行了,没必要达到厘米毫米级别,比如前方100多米一辆车,特斯拉视觉给出的测距误差大概是2米:这又有多大影响呢。
:
: 特斯拉测速的误差大致在1km/h以内了,距离和速度的精度已经完全满足安全需要了吧?
: ....................
- 来自「最水木 for iPhone13,1」
--
FROM 101.86.77.*
问题就是没必要仅仅靠视觉啊,车辆环境比理想情况复杂多了,不管几目视觉,先天不足
激光雷达就是贵,否则做fusion那是质的提升
【 在 hsv (单踏板首席试飞员) 的大作中提到: 】
: 多年前,我做过基于视频的测速,误差1km/h以内,很稳定,当然目标跟踪方式的测速稳定性很糟糕。
: 特斯拉这个靠网络直接出速度,比传统方式更稳定吧,看数据就好了,近处目标速度、距离精度高,远处精度低,不过影响不大,符合视觉测距特性。
--
修改:cokebear FROM 101.86.77.*
FROM 101.86.77.*
一个被动一个主动,成像原理、测距原理也完全不同,不能仅从波长来比较
【 在 lvsoft (Lv(The Last Guardian)) 的大作中提到: 】
: 那我们就讨论下天花板问题。
: 你觉得激光雷达在哪里可以体现出它的天花板比视觉更高?
: 比如,摄像头用的是400-700nm可见光谱成像,激光雷达用的是905nm近红外成像。
: ...................
--
修改:cokebear FROM 101.86.77.*
FROM 101.86.77.*
华为和大疆不是要降低激光雷达的成本么,就看中国人了
【 在 JoeWoo (原始陶罐) 的大作中提到: 】
: 就是贵是个大问题。。
: 发自「今日水木 on iPhone 12」
--
FROM 101.86.77.*
特斯拉追求的是规模化,这就决定了短期内不可能上激光雷达,说这些无非是托辞
不是技术问题,是商业模式的问题
就和华为说自己永不造车一样
【 在 hicharlie (马上诗人) 的大作中提到: 】
: 我是搞ai的,请教一下。
: 特斯拉说点,lidar和摄像头数据融合的时候容易出现数据污染,反而影响训练。所以他们完全放弃了lidar。
: 这个数据污染从训练的角度怎么理解。
: ...................
--
修改:cokebear FROM 101.86.77.*
FROM 101.86.77.*