- 主题:从物理学上看激光雷达和视觉方案
其实都是利用波来感知环境。只是一个长波一个短波。激光雷达需要自己发射波,而视觉方案直接接受反射波就够了,缺点就是夜间可见光范围的波不是很敏感吧,但是人眼看不见,不代表摄像头不能看到吧,就是个处理机制的问题。
--
FROM 223.104.41.*
最大的区别,视觉是阵列成像,激光雷达是单点扫描,类似现在的液晶面板和以前CRT的区别
【 在 okawaru 的大作中提到: 】
: 其实都是利用波来感知环境。只是一个长波一个短波。激光雷达需要自己发射波,而视觉方案直接接受反射波就够了,缺点就是夜间可见光范围的波不是很敏感吧,但是人眼看不见,不代表摄像头不能看到吧,就是个处理机制的问题。
--
FROM 120.229.75.*
激光雷达可以立体成像,摄像头只能显示平面
【 在 okawaru 的大作中提到: 】
: 其实都是利用波来感知环境。只是一个长波一个短波。激光雷达需要自己发射波,而视觉方案直接接受反射波就够了,缺点就是夜间可见光范围的波不是很敏感吧,但是人眼看不见,不代表摄像头不能看到吧,就是个处理机制的...
- 来自 水木说
--
FROM 114.252.106.*
不不不
最大的区别在于 激光雷达是主动探测距离
摄像头是被动的成像,成像的时候深度(距离)就没了,再想恢复出来很难很难很难很难,类似于 x = X/z 现在只有x 不知道z 但是让你求X
【 在 okawaru (okawaru) 的大作中提到: 】
:
: 其实都是利用波来感知环境。只是一个长波一个短波。激光雷达需要自己发射波,而视觉方案直接接受反射波就够了,缺点就是夜间可见光范围的波不是很敏感吧,但是人眼看不见,不代表摄像头不能看到吧,就是个处理机制的问题。
:
: --
--
FROM 114.246.100.*
大脑靠两只眼睛的平面像不也组合出空间图像了?
【 在 snwofox303 的大作中提到: 】
: 激光雷达可以立体成像,摄像头只能显示平面
:
: - 来自 水木说
--
FROM 114.244.47.*
三角测量原理当然是可以恢复深度的
问题是人眼只能大概判断出距离但无法准确测量,但计算机恢复出来深度需要数值没办法有非数值表示的深度,然后表现就是稍微远点深度不仅不准而且波动很大距离越远波动越大
【 在 cosun (航天局) 的大作中提到: 】
: 大脑靠两只眼睛的平面像不也组合出空间图像了?
: 【 在 snwofox303 的大作中提到: 】
: : 激光雷达可以立体成像,摄像头只能显示平面
: :
--
FROM 114.246.100.*
对于自动驾驶来说,不需要知道特别精确的距离,双目测距的精度足够了
【 在 atemis 的大作中提到: 】
: 三角测量原理当然是可以恢复深度的
: 问题是人眼只能大概判断出距离但无法准确测量,但计算机恢复出来深度需要数值没办法有非数值表示的深度,然后表现就是稍微远点深度不仅不准而且波动很大距离越远波动越大
:
--
FROM 120.229.75.*
端到端神经网络也是人的感知和决策模式,人能开成什么样,那边也能做到这水平。
【 在 atemis 的大作中提到: 】
: 三角测量原理当然是可以恢复深度的
: 问题是人眼只能大概判断出距离但无法准确测量,但计算机恢复出来深度需要数值没办法有非数值表示的深度,然后表现就是稍微远点深度不仅不准而且波动很大距离越远波动越大
:
--
FROM 114.244.47.*
真够的话,就不会那么多距离不够还瞎比逆行超车的了。
【 在 kettle 的大作中提到: 】
: 对于自动驾驶来说,不需要知道特别精确的距离,双目测距的精度足够了
:
--
FROM 221.223.21.*
当然不是 主要是抖动 很难准确知道速度,而且局部被切断会造成异常的朝向判断 再有就是 系统时延也不一样
最简单的例子就是图像识别现在有了神经网络简单多了,但它出来以前准确率就是做不上去,你也可以说简单 但计算机就出不来
【 在 kettle (小牛) 的大作中提到: 】
: 对于自动驾驶来说,不需要知道特别精确的距离,双目测距的精度足够了
:
: 【 在 atemis 的大作中提到: 】
: : 三角测量原理当然是可以恢复深度的
--
FROM 114.246.100.*