- 主题:特斯拉的神经网络及仿真训练是噱头吗 哪位大神给科普一下
感谢指教,我也一直说国人(不是华人)在理论算法模型方面毫无差距,这是我们的共同点。我甚至觉得已经有人在搞通用的感知模型,只是结果不那么好出来而已,但你要说融合感知更好,至少ppt也拿出来让人看了直呼内行吧……
无论是否融合,都需要视觉检测吧,目前华为小鹏那种旁边大车检出闪烁,是不是很糟糕?激光雷达如阁下所说为主,怎么融合二者呢,至少现在看激光雷达直接检出目标一样有准招问题,该不会是基于地图吧,请内行普及一下?
我说视觉满足距离速度误差满足要求,既然大佬也正在做相关项目,有何高见呢,业内双目辅助做adas目前啥水平呢,和fsd 10有啥差距呢?
本班除了大部分装逼犯,互相扣帽子,没啥干货,这很没意思,请指导一下吧。
【 在 fayeforever 的大作中提到: 】
: 哥们儿,从你这洋洋洒洒一大段,就能看出来,你基本只是个自动驾驶行业的业余爱好者
: cv领域越研究越知道问题的难度,这年头随便一个教育行业做一两年基础图像识别图像分类跑模型的,都敢大谈特谈自动驾驶了,可见我前面没说错,也可见自动驾驶行业目前有多少忽悠人的
: 你可能看了些论文,可能也认真看了aiday的pr ppt,结果却搞混了一个基本问题:自动驾驶领域激光雷达的作用,和高精地图领域激光雷达的作用,这两者是不同的。
: ...................
--
修改:hsv FROM 106.39.67.*
FROM 106.39.67.*
自动驾驶、无人驾驶很有误导性,应该叫辅助驾驶,这个我们很有共同点啊,你看10.5版本要求司机不得离开路面8秒钟,这就是心虚了啊,要知道现在商用放条狗就能开,那就是玩命啊。我一直说辅助驾驶不是让人玩手机、睡觉的,技术合理使用就行,但夸大宣传就是要命了,盲目相信技术,自己运气不好就变成数据里面的分子了…
fsd最早把transformer落地,但还是用了一些传统的backbone,19年的技术,不见得最优,但这个思路目前看是个里程碑,其他家视觉感知部分,至少也要达到这个水平才好说。
【 在 fayeforever 的大作中提到: 】
: 指教不敢当,我只是高精地图领域十年从业经验,恰好和自动驾驶有些相关性和共用技术而已
: 我不看好无人驾驶在近些年落地,其实很多业内专家已经陆续表达了对无人驾驶的悲观和谨慎态度,只不过更多知名专家出于各种各样的利益、圈子还不敢公开发声而已
: 至于融合感知方案更好,其实很好理解,就像美军晚上多了夜视仪,是不是更好了。不过再说明一遍,即使加了激光雷达的融合感知方案,我个人也不看好。无论是cv还是激光雷达,目前都是用穷举的思路在解问题,可现实世界是可穷举的吗?没有推理能力在无人驾驶这种开放场景下真的能行吗?我不知道
: ...................
--
FROM 106.39.67.*
有货就放,嘴炮无益。
【 在 WangXW 的大作中提到: 】
: 哟,既然还知道transformer,就不知道多目视觉隐含的根基是object detection?
: 那踩激光雷达方案,吹捧tesla的多目方案为啥?
:
--
FROM 106.39.67.*
扣帽子你最行。
【 在 WangXW 的大作中提到: 】
: 看不懂是你水平问题,俺就喜欢在这里打冒充内行人的脸
:
--
FROM 106.39.67.*
大佬把目前OD的进展介绍一下吧?
【 在 WangXW 的大作中提到: 】
: 哟,既然还知道transformer,就不知道多目视觉隐含的根基是object detection?
: 那踩激光雷达方案,吹捧tesla的多目方案为啥?
:
--
FROM 106.39.67.*
懂了,大佬有时间打脸,没时间随便Google。
【 在 WangXW 的大作中提到: 】
: 我在论坛的兴趣是打脸,在这里讨论啥学术,神经病么
:
--
FROM 106.39.67.*
理解,我反正不会在本帖技术无关的地方浪费时间。
【 在 WangXW 的大作中提到: 】
: 对,没兴趣看你们奉若宝典的啥子tesla ai day.
: 动不动从里面拖个名词吓唬围观群众,好怕怕
:
--
FROM 106.39.67.*
欢迎欢迎,我感觉到大佬这个水平,也懒得看就喷了。现在还年轻,不会可以学嘛…
【 在 WangXW 的大作中提到: 】
: 我后面有兴趣的时候,一样打脸不误
:
--
FROM 106.39.67.*
【 在 iGeek 的大作中提到: 】
: 准确的说,特斯拉是通过2D图像估算出来的3D点云,如果估算比激光雷达还准确,加激光雷达这条路绝对是走错了。
那是标注用的,精度被激光完爆,车上推理的压根没点云鸟事,标注它也用激光雷达做标尺。
: 然而马斯克说不用雷达主要原因是会冲突,摄像头看到的和雷达探测到的不一样时,不知道信哪个。但是特斯拉也是多摄像头协同的,多摄像头之间也有可能不一致吧?
一代是先各个摄像头检测,如果是大货车存在于多摄像头,再靠策略合并为一个大货车,合并会有各种问题,比如货车变轿车、反复跳变,这会影响AEB的响应时间,部分急刹源于此;beta是多摄像头变换到一个“标准”场景,然后分别提特征,再根据缓存的一段时间的特征,在“4D”上做检测,性能完爆一代,虽然也会有召回这类问题,但比一代强太多了。
取代雷达起因就是调查急刹原因,源于误检,好像他们也尝试改进雷达,实际不好。真正决定取代雷达还是因为模型进步导致有底气:一是模型直接输出的速度、距离精度很够用,且可以检测远处150米的货车,合理绕道,二是雨雪雾夜间的检测性能并不弱于雷达,甚至更好。这些都有数据支撑的。
我觉得最大的争议是自动驾驶这种宣传…
--
FROM 106.39.67.*
对,8个摄像头的特征通过transformer,变换到了bird view的特征向量,特征向量后面接分类、测速、分割等各子网络。
【 在 zwordcn 的大作中提到: 】
: 这个 transformer 指的是图像处理的中的 转换?
: 还是类似 nlp 中的长程相关处理?
对,借用nlp的transformer,把图像分块embedding,有transformer得到特征,后续可以分类/分割/检测,去年有ViT,今年有Swin,已经取代了原来one-stage/two-stage目标检测算法,开始再cv领域屠榜了……
: tesla ai day 的视频没细看。
--
FROM 106.39.67.*