- 主题:特斯拉的神经网络及仿真训练是噱头吗 哪位大神给科普一下
黑夜穿黑衣服看不见是吧?
给你个例子自己看:
https://www.bilibili.com/video/BV1t34y1R7nc【 在 dyatpk 的大作中提到: 】
: 棋类运动是最简单的适合机器学习的问题
: 自动驾驶的视觉处理,就最简单的物体切分就很难。
: 最简单的例子就是巨幅马路照片和实际马路在视觉处理是很难区分的
: ...................
--
修改:lvsoft FROM 180.111.49.*
FROM 180.111.49.*
所以说你就是在臆想,tesla本质上是在虚拟环境里面训练,你要什么样的特定场景都可以自己搭
【 在 wangcity 的大作中提到: 】
: 我之前老帖子说了,这种训练,现在达不到实用级别
: 出现特定没有训练过的场景就无法判别。
--
FROM 180.111.49.*
至少你到目前为止,还没有给出足以体现你是过干这行的信息质量。
【 在 WangXW 的大作中提到: 】
: 无知者无畏
: 质疑的都是干这行的
:
--
FROM 180.111.49.*
tesla fsd其实并没有用非常高的视频质量。
摄像头分辨率才720p,帧率也才35fps。
放现在是非常非常拉跨的。
但现在这个fsd能力已经足够令人信服了。
【 在 buaalx2 的大作中提到: 】
: 算力是问题么,人眼的视域范围能一下识别好几亿个像素吧,还能快速切换,不知道人眼的fps是多少
--
FROM 180.111.49.*
看到目前为止你是唯一一个掌握了最新信息并有效的表达了观点的人,
其他的讨论都是菜鸡互啄,没啥价值
【 在 hsv 的大作中提到: 】
: 蔚晓理特斯拉这一代辅助驾驶,用的是融合方案,仅就视觉感知而言,其每个摄像头检
: 出目标,然后融合再决策,每个摄像头都有漏检、误检,也没有距离信息(距离信息是靠
: 雷达输出的动态目标也会出错),融合效果很难保证,目前各种撞墙刹就是因为雷达的误
: ...................
--
FROM 180.111.49.*
tesla自动驾驶中的路径规划确实就用的和alphago一模一样的思路。
【 在 song2692005 的大作中提到: 】
: 你太皮毛了,你以为自动驾驶就和下棋一样吗?这样神经网络自动驾驶就是扯淡,骗投资人的钱
--
FROM 180.111.49.*
对,但这个动态范围还是有点勉强的,如果能怼到16bit就完美了。
分辨率也不能说足够,还是需要提升的。
但这两块的同步提升就只能等业界cmos sensor的提升了。
【 在 hsv 的大作中提到: 】
: 特斯拉是1280x960x12的摄像头,分辨率目前看还够用,这个12bit很关键……
--
FROM 180.111.49.*
你都看过fsd 10.8了,说明你也是一直在关注fsd演进的,
目前唯一一个打击信心的就是国内啥时候可以用上fsd,这个我是比较没信心的。我感觉又是到了新的一轮关门打狗阶段了...
tesla ai day,基本就把fsd的技术路线都公开了,现在就看国内新势力能抄成啥样了...
【 在 hsv 的大作中提到: 】
: 我定的22款,订单215估计1月下旬提车,我指望有人打击我死心,就不提车了,毕竟2-3年后本地化以后才值得买…
: :
--
FROM 180.111.49.*
你的发帖没信息量,我给的信息量比你多就行了。
你是小学生么?who care 你配不配
【 在 WangXW 的大作中提到: 】
: 你配么
:
--
FROM 180.111.49.*
所以你说的都是上一代方案了,
fsd根本就不这么干的。
你说的问题都是tesla ai day一开始就说的,上一代方法的问题以及为啥要在底层基于vector space来做识别的原因。
【 在 smezsc 的大作中提到: 】
: 照片没用,三目摄像头用视角差测距…
: 再用AI识别物体。
: 如果在路的尽头画上路,视角差会发现画的差值一样,从而判断距离。
: ...................
--
FROM 180.111.49.*