- 主题:实现自动驾驶不一定要用激光雷达
自动驾驶领域感知一般指的就是从硬件传感器到软件算法检测识别
现在就是软件算法层面离人脑还差的很远,所以才要用激光雷达
【 在 sunlustre 的大作中提到: 】
: 毕竟人类的距离感知器官只有双眼,等于两个定焦摄像头。个别场合下双耳能有点辅助作用。
: 重要的是大脑的分析处理。
: 特斯拉现在使用的视觉+雷达+超声波的全方位距离感知系统,能力已经远远超过人类。
: ...................
--
FROM 111.206.145.*
毫米波雷达低速静态物体识别不靠谱肯定不是芯片算法就能解决的,顾此失彼的事情,想彻底搞定还是加激光雷达做叠加覆盖
【 在 sunlustre (shining_sn) 的大作中提到: 】
: 那是改进芯片和算法的事。
:
:
:
--
FROM 112.96.164.*
因为目前还达不到人脑处理各种信息的能力,所以需要输入方面折中,简化输入,准确输入。
你的论据,恰恰不支持你的结论。
【 在 sunlustre 的大作中提到: 】
: 这是计算的问题,不是感知系统的问题。
: 人眼感知的世界是倒立的、扭曲的、像素不均的,大脑把视觉信息给整合再现真实世界。
:
--
FROM 39.155.238.*
现在的视觉处理比鸡眼强不了多少,脚底长的那东西。
【 在 sunlustre 的大作中提到: 】
: 毕竟人类的距离感知器官只有双眼,等于两个定焦摄像头。个别场合下双耳能有点辅助作用。
: 重要的是大脑的分析处理。
: 特斯拉现在使用的视觉+雷达+超声波的全方位距离感知系统,能力已经远远超过人类。
: ....................
- 来自「最水木 for iPhone 7」
--
FROM 117.136.38.*
普通摄像头能看清百米以外么
如果要自动驾驶,看清一二百米外是必要的
【 在 sunlustre 的大作中提到: 】
: 毕竟人类的距离感知器官只有双眼,等于两个定焦摄像头。个别场合下双耳能有点辅助作用。
: 重要的是大脑的分析处理。
: 特斯拉现在使用的视觉+雷达+超声波的全方位距离感知系统,能力已经远远超过人类。
: ...................
--
FROM 61.135.169.*
生物大脑有百万年的进化, 能处理各种通用情况.
那种程序不开点外挂怎么和人脑比.
--
FROM 180.169.60.*
你照相机拍下来的不比你肉眼看的清楚?
我遇到远处看不清的情况,都是拍下来放大照片看细节。
【 在 LYMing1986 的大作中提到: 】
: 普通摄像头能看清百米以外么
: 如果要自动驾驶,看清一二百米外是必要的
:
--
FROM 117.136.38.*
行驶过程中,你让摄像头对焦哪里?
摄像机只在焦距附近看的清晰,你要对焦无穷远么
【 在 sunlustre 的大作中提到: 】
: 你照相机拍下来的不比你肉眼看的清楚?
: 我遇到远处看不清的情况,都是拍下来放大照片看细节。
:
: ...................
--
FROM 61.135.169.*
雇个司机吧
--
FROM 34.98.250.*
gp全方位距离感知,真管用,也不至于把货车车厢识别成白云导致撞死人
跟主动式扫描并三维成像的激光雷达有一点可比性吗?
没有主动式扫描,怎么确保雨雪雾晚上等恶劣环境下自动驾驶的安全性?
目前AI远没有达到人脑应对各种复杂状况的处理水平,把性命委托给
特斯拉当小白鼠试错,真的是傻透了
【 在 sunlustre (shining_sn) 的大作中提到: 】
: 毕竟人类的距离感知器官只有双眼,等于两个定焦摄像头。个别场合下双耳能有点辅助作用。
: 重要的是大脑的分析处理。
: 特斯拉现在使用的视觉+雷达+超声波的全方位距离感知系统,能力已经远远超过人类。
: ...................
--
FROM 124.205.77.*