- 主题:特斯拉的神经网络及仿真训练是噱头吗 哪位大神给科普一下
tesla fsd其实并没有用非常高的视频质量。
摄像头分辨率才720p,帧率也才35fps。
放现在是非常非常拉跨的。
但现在这个fsd能力已经足够令人信服了。
【 在 buaalx2 的大作中提到: 】
: 算力是问题么,人眼的视域范围能一下识别好几亿个像素吧,还能快速切换,不知道人眼的fps是多少
--
FROM 180.111.49.*
看到目前为止你是唯一一个掌握了最新信息并有效的表达了观点的人,
其他的讨论都是菜鸡互啄,没啥价值
【 在 hsv 的大作中提到: 】
: 蔚晓理特斯拉这一代辅助驾驶,用的是融合方案,仅就视觉感知而言,其每个摄像头检
: 出目标,然后融合再决策,每个摄像头都有漏检、误检,也没有距离信息(距离信息是靠
: 雷达输出的动态目标也会出错),融合效果很难保证,目前各种撞墙刹就是因为雷达的误
: ...................
--
FROM 180.111.49.*
【 在 djkstra 的大作中提到: 】
: 这个和下棋不一样,自动驾驶的关键是模型,而不是训练,模型就相当于智商水平,
: 模型不行,训练再多都没用,就像你让一条哈士奇来开车, 天天练夜夜练你也练不出人类的水平
:
我都懒得回你,国外已经很多在测试特斯拉v10版本的自动驾驶了
--
FROM 116.213.171.*
tesla自动驾驶中的路径规划确实就用的和alphago一模一样的思路。
【 在 song2692005 的大作中提到: 】
: 你太皮毛了,你以为自动驾驶就和下棋一样吗?这样神经网络自动驾驶就是扯淡,骗投资人的钱
--
FROM 180.111.49.*
【 在 song2692005 的大作中提到: 】
: 你太皮毛了,你以为自动驾驶就和下棋一样吗?这样神经网络自动驾驶就是扯淡,骗投资人的钱
这个和人的认知水平有关,青蛙没跳出井里之前,也会以为天只有井口那么大
--
FROM 116.213.171.*
照片没用,三目摄像头用视角差测距…
再用AI识别物体。
如果在路的尽头画上路,视角差会发现画的差值一样,从而判断距离。
【 在 dyatpk 的大作中提到: 】
: 拆了雷达之后前面放个照片或画个马路和蓝天白云估计就搞不定
:
--
修改:smezsc FROM 36.112.201.*
FROM 36.112.201.*
我定的22款,订单215估计1月下旬提车,我指望有人打击我死心,就不提车了,毕竟2-3年后本地化以后才值得买…
【 在 lvsoft 的大作中提到: 】
: 看到目前为止你是唯一一个掌握了最新信息并有效的表达了观点的人,
: 其他的讨论都是菜鸡互啄,没啥价值
:
--
FROM 106.39.67.*
对,但这个动态范围还是有点勉强的,如果能怼到16bit就完美了。
分辨率也不能说足够,还是需要提升的。
但这两块的同步提升就只能等业界cmos sensor的提升了。
【 在 hsv 的大作中提到: 】
: 特斯拉是1280x960x12的摄像头,分辨率目前看还够用,这个12bit很关键……
--
FROM 180.111.49.*
你配么
【 在 lvsoft 的大作中提到: 】
: 至少你到目前为止,还没有给出足以体现你是过干这行的信息质量。
--
FROM 222.128.117.*
你都看过fsd 10.8了,说明你也是一直在关注fsd演进的,
目前唯一一个打击信心的就是国内啥时候可以用上fsd,这个我是比较没信心的。我感觉又是到了新的一轮关门打狗阶段了...
tesla ai day,基本就把fsd的技术路线都公开了,现在就看国内新势力能抄成啥样了...
【 在 hsv 的大作中提到: 】
: 我定的22款,订单215估计1月下旬提车,我指望有人打击我死心,就不提车了,毕竟2-3年后本地化以后才值得买…
: :
--
FROM 180.111.49.*