- 主题:Re: 阿尔法S的车身扭转刚度是60000
这个还是传统的思路,认为多一个手段就多一份保障,这恰好说明基于单帧图像做目标检测上限很低,需要其他方面来补充。
刚进实验室的研究生,做完一个idea,结果不能复现,就开始质疑方法是不是正确,这叫浅尝辄止,如果没有相应的资源,专业人士一样也会犯这种低级错误。
【 在 ylh1969 的大作中提到: 】
: 多个激光雷达有助于识别威胁,还可以结合视觉传感器。
--
FROM 219.237.181.*
,这个太可笑了,你说算1+1等于几,你的说法类似于要用苹果香蕉大鸭梨分别算,最好白菜茄子大土豆也要算一遍。人家的算法和硬件,是从逻辑上要证明一个定理,在底层演绎逻辑上得到根本的证明,不需要像小学生一样把题算个遍啊!
【 在 hsv 的大作中提到: 】
: 你说华为研发可以不反对,但是“ 辅助驾驶主要靠的不是计算能力,而是硬件的可靠性和算法的先进性。”这个就是你的认知局限性了。要想达到更好的泛化性能,数据和算力是关键。华为用激光雷达,依然避免不了多传感器融合模型所需要的天量数据。
: 后面视觉部分,感觉你也不理解,没有讨论的必要了。
: 【 在 sdlk 的大作中提到: 】
: ....................
- 来自「最水木 for iPhone13,2」
--
FROM 114.253.48.*
赞!
【 在 sdlk 的大作中提到: 】
: “数据和算力是关键”,这种说法,只能说现有的方案落后,导致业内形成了错误的概念,以为算力上去了就能解决问题。我也研究过大数据,纯数据的处理方案非常愚蠢,计算量大却经常得到不合理的结论。人类驾驶员做出判断需要那么复杂吗?现有的辅助驾驶的缺陷就是不能有效处理模糊判断,源于图像处理技术的落后,而人类在这方面具有先天的优势。
:
: 另外,奉劝你一句,在一个行业内呆的时间长的人,思维往往僵化了,容易在错误的路上越走越远。摄像头雷达这类传感器,是非常初等的,汽车行业的人搞不定,是这个行业的研究人员水平不够,并不是说这个问题有多么难。
: ....................
- 来自「最水木 for iPhone13,2」
--
FROM 114.253.48.*
他说的不是激光雷达吧
【 在 hsv 的大作中提到: 】
: andrej在cvpr上说了三个代表性的case,一个是雷达把静止的桥梁当做了目标,融合视觉确认成了路上静止的目标,于是刹车;另一个是前车急刹,雷达给出的速度不是连续下降的,而是间隔速度0,导致跟踪器反复初始化,影响了aeb的效果;还有一个是路边靠边停了占半个道的一个箱货,雷达不能在200米的时候识别,减速时机太晚,上述case在视觉都没有问题,尤其是视觉先发现了200米处的箱货,减速更加趋近于老司机。(ps:激光雷达在这个距离,只能给出1.4米以上尺寸的物体,并没有领先视觉多少)
: 在ai day他给出了视频神经网络的测速、测距精度,取代雷达小意思;标注在短时间给出了大量的光线、遗撒、雨雾雪等挑战性的case,重新训练以后,效果更好。
: 雷达在各种任务中,完全不如纯视觉,特斯拉有一段时间尝试改进雷达硬件最终放弃了,所以权衡以后干脆去掉了雷达,吓得美国iihs把topsecrete评级取消了,后来重新评测了纯视觉的model3/y以后,仍然给了ts评级,这让雷达情何以堪呢。
: ...................
--
FROM 149.129.44.*
是激光雷达。他说的是算法方面的问题,应该可以改进。
特斯拉取消激光雷达主要是基于成本的考虑。
华为的方案,是激光雷达+视觉,还是立体视觉。应该是更好,,效果要等产品出来后再看。
无论谁,必须解决高速远距离低速和静止物体识别问题。
【 在 iGeek 的大作中提到: 】
: 他说的不是激光雷达吧
:
--
修改:ylh1969 FROM 221.221.52.*
FROM 221.221.52.*
那给你个场景你拿全视觉解决一下吧
区别一下大尺寸的 公路天空的照片 与 真实道路
要知道特斯拉连白色车厢都撞了,上面那种场景肯定完蛋
【 在 west 的大作中提到: 】
: 到现在为止,我还没听到你说出什么我不懂的技术
:
--
FROM 218.241.131.*
那你只知道
数据集A->结论a
数据集B->结论b
如果ab矛盾不好处理
那把数据AB一起放到模型里训练->结论c不就解决了冲突的问题了吗?
【 在 west 的大作中提到: 】
: 到现在为止,我还没听到你说出什么我不懂的技术
:
--
FROM 218.241.131.*
人眼能识别的,机器视觉也能够识别,这是算法的问题,可以改良的
视觉传感器能提供大量的细节信息,这是任何其它传感器无法比拟的
【 在 dyatpk (伪金工) 的大作中提到: 】
: 那给你个场景你拿全视觉解决一下吧
: 区别一下大尺寸的 公路天空的照片 与 真实道路
: 要知道特斯拉连白色车厢都撞了,上面那种场景肯定完蛋
: ...................
--
修改:west FROM 183.173.86.*
FROM 183.173.86.*
你说的这些,只上过大学科普课程的同学不理解的
【 在 hsv (单踏板首席试飞员) 的大作中提到: 】
: andrej在cvpr上说了三个代表性的case,一个是雷达把静止的桥梁当做了目标,融合视觉确认成了路上静止的目标,于是刹车;另一个是前车急刹,雷达给出的速度不是连续下降的,而是间隔速度0,导致跟踪器反复初始化,影响了aeb的效果;还有一个是路边靠边停了占半个道的一个
: 在ai day他给出了视频神经网络的测速、测距精度,取代雷达小意思;标注在短时间给出了大量的光线、遗撒、雨雾雪等挑战性的case,重新训练以后,效果更好。
: 雷达在各种任务中,完全不如纯视觉,特斯拉有一段时间尝试改进雷达硬件最终放弃了,所以权衡以后干脆去掉了雷达,吓得美国iihs把topsecrete评级取消了,后来重新评测了纯视觉的model3/y以后,仍然给了ts评级,这让雷达情何以堪呢。
: ...................
--
FROM 183.173.86.*
理论上是的。等看特斯拉新的ap的效果。
【 在 west 的大作中提到: 】
: 人眼能识别的,机器视觉也能够识别,这是算法的问题,可以改良的
: 视觉传感器能提供大量的细节信息,这是任何其它传感器无法比拟的
:
--
FROM 221.221.52.*