- 主题:Re: 阿尔法S的车身扭转刚度是60000
纯视觉方案,说白了就是低成本,能达到高可用就行了。
白色卡车和工程车明显是单帧图像的问题,之前的问题除了样本空间覆盖问题,神经网络也不能利用空间、时间信息。
dojo上线以后,随着样本的激增,最难的还是一些摇摆样本的问题。
【 在 dyatpk 的大作中提到: 】
: 辅助驾驶反正就那么回事 低点就低点 反正有人把关
: 遇到白色卡车人接管就好了
: 自动驾驶纯视觉根本不够啊
: ...................
--
FROM 223.104.39.*
小众车型,二手也卖不上价,参考版上的滕势300价格不如一辆老头乐呢。
极狐其实不用担心领导更替,市属企业,这个战略层面的事情,他们决定不了,只能执行,执行不好就会被换掉。
【 在 lxqcj 的大作中提到: 】
: 销量上不来不敢买啊,坏件了修个车等半年
--
FROM 223.104.39.*
雷达的误检是难以避免的,我前面也说了,特斯拉去掉雷达,是由理论数据的。况且多数据融合,涉及到策略,人工策略只能增加,是不可能做到极致的。
去掉雷达,恰好是纯视觉方案,低成本的达到了更好的效果。
激光雷达方案,在小样本初期,可能会优于纯视觉方案,在后期就不一定了。
【 在 dyatpk 的大作中提到: 】
: 哥们,你没发现你逻辑是死循环的吗
: 因为特斯拉用的纯视觉方案,所以纯视觉方案好,所以特斯拉这样是对的。
: 正常人想着多个雷达,甚至多好多个雷达,肯定增强了识别物体的效果,只有你就掉进了纯视觉好的坑里出不来了。
: ...................
--
FROM 219.237.181.*
结论是一致的,哈哈。
纯视觉去掉传统雷达这个,我相信他们的实验结果。我很多年前做过视觉测速,精度和他们的图表很接近的,误差1km/h内,非常鲁棒稳定。用神经网络预测速度、距离,完全够用,还不用担心雷达误检导致的撞墙刹,雨雾雪等恶劣天气,视觉比雷达表现更好。
【 在 dyatpk 的大作中提到: 】
: 如果加上雷达都不行的话,纯视觉更不行,这就说明光靠车来识别外部环境这条路不通。
: 车路协同可能是更好的出路。
: anyway,我对自动驾驶在10年内都不看好,老老实实宣传辅助驾驶吧。
: ...................
--
FROM 223.104.39.*
andrej在cvpr上说了三个代表性的case,一个是雷达把静止的桥梁当做了目标,融合视觉确认成了路上静止的目标,于是刹车;另一个是前车急刹,雷达给出的速度不是连续下降的,而是间隔速度0,导致跟踪器反复初始化,影响了aeb的效果;还有一个是路边靠边停了占半个道的一个箱货,雷达不能在200米的时候识别,减速时机太晚,上述case在视觉都没有问题,尤其是视觉先发现了200米处的箱货,减速更加趋近于老司机。(ps:激光雷达在这个距离,只能给出1.4米以上尺寸的物体,并没有领先视觉多少)
在ai day他给出了视频神经网络的测速、测距精度,取代雷达小意思;标注在短时间给出了大量的光线、遗撒、雨雾雪等挑战性的case,重新训练以后,效果更好。
雷达在各种任务中,完全不如纯视觉,特斯拉有一段时间尝试改进雷达硬件最终放弃了,所以权衡以后干脆去掉了雷达,吓得美国iihs把topsecrete评级取消了,后来重新评测了纯视觉的model3/y以后,仍然给了ts评级,这让雷达情何以堪呢。
在短期内没有技术能达到100%、万无一失,新版的fsd砍掉了旧版大部分的人工规则策略、引入了视觉神经网络、end2end训练不需要人工干预的各种策略,可以靠每天的海量样本将局限性慢慢降低,率先达到更高的可用性,我觉得就可以了。
毕竟定速、acc、L2、Trj等技术,逐渐取代了一部分司机的职责,提升了舒适度,但并不意味着司机就不参与交通了,越是老司机越能够从细节中得到更好的安全性、更好的舒适性。博世的L2.5也罢,FSD也罢,都能再随时接管的情况下用用,一定程度上减轻疲劳,
L2.5也能凑合用,FSD很好用,都是工具,如此而已。
【 在 ylh1969 的大作中提到: 】
: 正确判断是否威胁应该不难。看雷达定位测速精度。
--
修改:hsv FROM 219.237.181.*
FROM 219.237.181.*
这个还是传统的思路,认为多一个手段就多一份保障,这恰好说明基于单帧图像做目标检测上限很低,需要其他方面来补充。
刚进实验室的研究生,做完一个idea,结果不能复现,就开始质疑方法是不是正确,这叫浅尝辄止,如果没有相应的资源,专业人士一样也会犯这种低级错误。
【 在 ylh1969 的大作中提到: 】
: 多个激光雷达有助于识别威胁,还可以结合视觉传感器。
--
FROM 219.237.181.*