- 主题:Re: 阿尔法S的车身扭转刚度是60000
你讨论专业性,起码你懂专业问题是什么再讨论吧
你就说怎么解决不了吧
或者你说说拿一个照片过来识别物体都走几步吧
【 在 west 的大作中提到: 】
: 这些课没卵用的,现在的成熟算法,没法解决图像识别和雷达融合的问题
:
--
FROM 218.241.131.*
多个激光雷达有助于识别威胁,还可以结合视觉传感器。
【 在 west 的大作中提到: 】
: 激光雷达并不能识别是什么物体,也许是前车洒下的灰尘呢
:
--
FROM 221.221.52.*
到现在为止,我还没听到你说出什么我不懂的技术
【 在 dyatpk (伪金工) 的大作中提到: 】
: 你讨论专业性,起码你懂专业问题是什么再讨论吧
: 你就说怎么解决不了吧
: 或者你说说拿一个照片过来识别物体都走几步吧
: ...................
--
FROM 183.173.86.*
结合是最难的,激光雷达在阳光下有误警率,如果雷达报警,但视觉传感器什么都没看到,你信谁?
传感器越多,这个信任等级的问题就越突出
【 在 ylh1969 (没谱) 的大作中提到: 】
: 多个激光雷达有助于识别威胁,还可以结合视觉传感器。
--
修改:west FROM 183.173.86.*
FROM 183.173.86.*
等着看它的效果
【 在 west 的大作中提到: 】
: 结合是最难的,激光雷达在阳光下有误警率,如果雷达报警,但视觉传感器什么都没看到,你信谁?
: 传感器越多,这个信任等级的问题就越突出
:
--
FROM 221.221.52.*
效果就是,特斯拉测试后,取消了激光雷达,当然,华为也许会有更牛逼的算法,当然这个很难
【 在 ylh1969 (没谱) 的大作中提到: 】
: 等着看它的效果
--
修改:west FROM 183.173.86.*
FROM 183.173.86.*
看到200m外的低速或静止物体,白色或黄色的,不难吧!
【 在 west 的大作中提到: 】
: 效果就是,特斯拉测试后,取消了激光雷达,当然,华为也许会有更牛逼的算法,当然这个很难
:
--
FROM 221.221.52.*
200m外的低速或静止物体,白色或黄色的 这样的东西太多了,比如广告牌
【 在 ylh1969 (没谱) 的大作中提到: 】
: 看到200m外的低速或静止物体,白色或黄色的,不难吧!
--
修改:west FROM 183.173.86.*
FROM 183.173.86.*
正确判断是否威胁应该不难。看雷达定位测速精度。
【 在 west 的大作中提到: 】
: 200m外的低速或静止物体,白色或黄色的 这样的东西太多了,比如广告牌
:
--
FROM 221.221.52.*
andrej在cvpr上说了三个代表性的case,一个是雷达把静止的桥梁当做了目标,融合视觉确认成了路上静止的目标,于是刹车;另一个是前车急刹,雷达给出的速度不是连续下降的,而是间隔速度0,导致跟踪器反复初始化,影响了aeb的效果;还有一个是路边靠边停了占半个道的一个箱货,雷达不能在200米的时候识别,减速时机太晚,上述case在视觉都没有问题,尤其是视觉先发现了200米处的箱货,减速更加趋近于老司机。(ps:激光雷达在这个距离,只能给出1.4米以上尺寸的物体,并没有领先视觉多少)
在ai day他给出了视频神经网络的测速、测距精度,取代雷达小意思;标注在短时间给出了大量的光线、遗撒、雨雾雪等挑战性的case,重新训练以后,效果更好。
雷达在各种任务中,完全不如纯视觉,特斯拉有一段时间尝试改进雷达硬件最终放弃了,所以权衡以后干脆去掉了雷达,吓得美国iihs把topsecrete评级取消了,后来重新评测了纯视觉的model3/y以后,仍然给了ts评级,这让雷达情何以堪呢。
在短期内没有技术能达到100%、万无一失,新版的fsd砍掉了旧版大部分的人工规则策略、引入了视觉神经网络、end2end训练不需要人工干预的各种策略,可以靠每天的海量样本将局限性慢慢降低,率先达到更高的可用性,我觉得就可以了。
毕竟定速、acc、L2、Trj等技术,逐渐取代了一部分司机的职责,提升了舒适度,但并不意味着司机就不参与交通了,越是老司机越能够从细节中得到更好的安全性、更好的舒适性。博世的L2.5也罢,FSD也罢,都能再随时接管的情况下用用,一定程度上减轻疲劳,
L2.5也能凑合用,FSD很好用,都是工具,如此而已。
【 在 ylh1969 的大作中提到: 】
: 正确判断是否威胁应该不难。看雷达定位测速精度。
--
修改:hsv FROM 219.237.181.*
FROM 219.237.181.*