- 主题:余承东:纯视觉方案需要激光雷达兜底
我没说端到端不行啊,我说的是端到端不等于纯视觉。
能看懂汉字吗?
【 在 kettle 的大作中提到: 】
: 你发个虚拟图说端到端不行,如果是端到端哪来的虚拟图?说说你对端到端的理解
:
--
FROM 223.104.38.*
不知道为何要发展这些而不发展机器人司机,将来有了机器司机,哪怕是普通的非智能车照样随便开
【 在 Acui 的大作中提到: 】
: 快科技9月28日消息,今日上午,华为余承东和知名主持人马东举行了访谈,在谈到华为乾崑智驾ADS3.0的时候,马东抛出了一个问题,也就是“激光雷达是必要的吗?”余承东表示,坚持用激光雷达,是因为激光雷...
- 来自 水木说
--
FROM 117.61.108.*
也不一定,信息矛盾,更决策不了
【 在 MachvPicchv 的大作中提到: 】
: 端到端就是端到端,非要限制纯视觉就是作茧自缚。
: 信息肯定越多越利于决策。
--
FROM 114.249.185.*
16亿花在哪儿了?
【 在 Acui 的大作中提到: 】
: 快科技9月28日消息,今日上午,华为余承东和知名主持人马东举行了访谈,在谈到华为乾崑智驾ADS 3.0的时候,马东抛出了一个问题,也就是“激光雷达是必要的吗?”余承东表示,坚持用激光雷达,是因为激光雷达的安全性。
:
: “只用摄像头方案没用激光雷达方案的,摄像头致盲就完蛋了,有些东西,摄像头是没办法的,摄像头有极限。包括毫米波雷达,车厂都应该用,因为在雨天大雾天,摄像头不好用。”余承东这样说道。
:
: 此外,余承东还表示,鸿蒙智行ADS 3.0把车位到车位的功能加强了。
:
: “华为ADS 3.0我们加了一个保底,万一AI出错了,我们的安全底线判断不能走,那么会根据安全底线来,ADS 3.0现在还不是L3,是按照L3的标准去进行设计的,因为现在国家还在制定L3相关的标准。”
:
: 余承东所说的保底,其实就是“本能安全网络”,华为的ADS 3.0 GOD感知神经网络拥有两张网络,一张是PDP决策神经网络,另外一张则是本能安全网络,端到端的上限非常高,但下限也会被拉低,因此需要一个兜底的存在。
:
: --
: 发自xsmth (iOS版)
发自「快看水母 于 VOG-AL00」
--
FROM 223.104.38.*
华为苇叶,文盲当负责人
--
FROM 123.138.86.*
信息矛盾说明有一个信息是错的,那你还敢用一个信息决策?
【 在 deepwl 的大作中提到: 】
: 也不一定,信息矛盾,更决策不了
--
FROM 223.104.38.*
扯淡,视觉连照片和事实景都分辨不出来,歇菜吧。你这个id毫无信用度,别挣扎了。
【 在 FLYBBS (空手套白狼) 的大作中提到: 】
: 感觉说反了,应该是视觉给雷达兜底。
: 有了雷达起码不会撞,但需要视觉给雷达兜底
:
: 【 在 Acui 的大作中提到: 】
--
FROM 114.254.3.*
张嘴就来啊,反正打脸也光荣
【 在 TimeAndRiver 的大作中提到: 】
: AI方面确实处于抄袭阶段
: 现在明显的抄袭不上
: 因为算力不够
: ...................
--
FROM 120.244.4.*
你是啥大拿啊?有脸说别人啥也不懂?
【 在 deepwl 的大作中提到: 】
: 这哥们啥都不懂,雨天雪天大雾天,激光雷达也盲
--
FROM 120.244.4.*
你瞎?
人家都说毫米波雷达了
【 在 kettle 的大作中提到: 】
: 雨雾天激光雷达也一样抓瞎,要毫米波雷达才好使
:
: 【 在 Acui 的大作中提到: 】
: ...................
--
FROM 120.244.202.*