- 主题:实现自动驾驶不一定要用激光雷达
毕竟人类的距离感知器官只有双眼,等于两个定焦摄像头。个别场合下双耳能有点辅助作用。
重要的是大脑的分析处理。
特斯拉现在使用的视觉+雷达+超声波的全方位距离感知系统,能力已经远远超过人类。
激光雷达可以用,那是等价格降下来以后。
--
FROM 117.136.38.*
全套系统几十个组件,带自动清洗,比双眼的稳定性也强多了。
关键是大脑比较厉害。
【 在 quanjiatong 的大作中提到: 】
: 前提是感知准确稳定,如果感知成这样你觉得呢?
--
FROM 117.136.38.*
这是计算的问题,不是感知系统的问题。
人眼感知的世界是倒立的、扭曲的、像素不均的,大脑把视觉信息给整合再现真实世界。
【 在 quanjiatong 的大作中提到: 】
: 特斯拉最大的特点就是不稳定,探测出来路上车辆疯狂摇摆估计每个车主都见过,但是很少有人回答探测都不精确稳定那天天吹所谓的自动驾驶哪来的底气
--
FROM 117.136.38.*
在现有外设基础上完全可以发展自动驾驶。
算得不好不能怪外设。
【 在 quanjiatong 的大作中提到: 】
: 这个计算不是感知系统对周围环境抽象后的数据么?不作为自动驾驶基础?周围环境感知抽象出来这么大的问题怎么保证自动驾驶不出大问题?纯凭胆子大法务强么?
--
FROM 117.136.38.*
那是改进芯片和算法的事。
【 在 quanjiatong 的大作中提到: 】
: 那只能说 理论上按照现有外设基础上可以发展自动驾驶,实际方案探测计算的不稳定如果出问题那就是理论上以外的事了
--
FROM 117.136.38.*
你照相机拍下来的不比你肉眼看的清楚?
我遇到远处看不清的情况,都是拍下来放大照片看细节。
【 在 LYMing1986 的大作中提到: 】
: 普通摄像头能看清百米以外么
: 如果要自动驾驶,看清一二百米外是必要的
:
--
FROM 117.136.38.*
注意,人眼是定焦镜头。
【 在 LYMing1986 的大作中提到: 】
: 行驶过程中,你让摄像头对焦哪里?
: 摄像机只在焦距附近看的清晰,你要对焦无穷远么
:
--
FROM 117.136.38.*
算力远远胜于人脑,算法比较差。
特斯拉AP3.0硬件每秒处理2300帧图像,人类每秒处理图像不超过60帧。
【 在 Svensson 的大作中提到: 】
: 说的好像芯片算力能匹配人脑一样
: 现在都是人工智障,所以才需要强于人眼的传感器
: 发自「今日水木 on IN2010」
--
FROM 117.136.38.*
你好好了解一下人眼吧。
【 在 moudy 的大作中提到: 】
: 我的天啊,捧摄像头方案分不清定焦和对焦,这真的不是笑话么............
--
FROM 117.136.38.*