- 主题:特斯拉的神经网络及仿真训练是噱头吗 哪位大神给科普一下
雪糕筒识别一直在进步,躲避个别异常雪糕筒:
https://m.bilibili.com/video/BV1DS4y1M7Mf?p=1&share_medium=iphone&share_plat=ios&share_session_id=8DAA31C4-196F-4F6E-9177-29C433E391A0&share_source=WEIXIN&share_tag=s_i×tamp=1640761121&unique_k=i3Xrhc4
不建议你布道,很多人连工具特性、正确使用工具都分不清,走路看手机还掉井盖呢…
【 在 lvsoft 的大作中提到: 】
: 你都看过fsd 10.8了,说明你也是一直在关注fsd演进的,
: 目前唯一一个打击信心的就是国内啥时候可以用上fsd,这个我是比较没信心的。我感觉又是到了新的一轮关门打狗阶段了...
: tesla ai day,基本就把fsd的技术路线都公开了,现在就看国内新势力能抄成啥样了...
: ...................
--
修改:hsv FROM 106.39.67.*
FROM 106.39.67.*
【 在 census 的大作中提到: 】
: 能不能跟我们这些外行通俗的说一下:
: 1、需要多长时间,FSD自己开车可以超过人类中的老司机,比如说几年内就可以超过,还是几十年内没戏
两年做到了新手稍弱级别,几年有希望超越人类不敢瞎预测,肯定用不了几十年。
: 2、现在的各种辅助驾驶,差距有多大?这种差距会逐渐缩小,还是越来越大?
我觉得博世的L2.5,就可以接受,各家无非是司机干预多少次的差别,都需要司机专注盯着。
在车道协同,全量辅助驾驶没有达到之前,看手机睡觉,不死就是运气好…
--
FROM 106.39.67.*
我以前发过帖,专注度检测是目前辅助驾驶必须标配的,源于人的懈怠,哪怕人出错千分之一,机器万分之一,最终还是会责怪机器。
fsd beta 10.5上线了专注度检测,最长15秒报警,应该是这个逻辑。只能说2019年重建的团队,不再为上一任的漏洞背锅了,更加谨慎了。以前的宣传也太大胆了…
【 在 lvsoft 的大作中提到: 】
: google最早做自动驾驶的时候就提出这个观点。
: 自动驾驶只有完全无人干预的自动驾驶这一条路,
: 不存在辅助驾驶这样的中间路线。
: ...................
--
FROM 106.39.67.*
我就指望2-3年后,可以本地化,到时脱胎换骨,如果闭关了,也认了…
目前国内其他家能ota辅助驾驶的也不多,算法模型这些是咱强项,但数据积累就不足了,可以认为技术上至少落后2年,数据上不好说,特斯拉可是上百万辆车…。
本来dojo一枝独秀,今年下半年英伟达也出了ai 超算方案,国内唯一的瓶颈其实是数据积累,方案路线也是眼花缭乱,真到开始落地也要按年计算。
本地化也不是说就直接能用,肯定是100分司机开几个月,99分司机再开几个月,然后98、97,测试范围逐步扩大,目前美国才开放到97分…
我2018年就心水单踏板,现在是fsd,在本版就是布鲁诺信徒…
【 在 census 的大作中提到: 】
: 试过博世的辅助驾驶,感觉一些细节挺吓人的(可能是我胆小吧),该躲车的时候,它还是贴的很近
: FSD和其它几家辅助驾驶的差距会逐渐缩小,还是越来越大,对我的影响就是选择特斯拉还是非特斯拉,毕竟买了车很可能会开它六、七年以上
:
--
FROM 106.39.67.*
路线之争本质上还是部门斗争,要不是召唤翻车,马斯克也不会重组这个部门…
看知乎,搞视觉感知的,其实比较弱小…
【 在 lvsoft 的大作中提到: 】
: dojo也谈不上一枝独秀,国内也有1ex的算力,在深圳用的华为的方案。
: dojo的过人之处是丫的密度太高了,达到1ex只需要110个披萨盒这么大,几个rack就解决了,国内的那个方案占地面积6600平呢。所以dojo可以说1ex只是起步,看需求可以2ex,5ex,10ex....
: 国内这块的问题就是你说的眼花缭乱,说不好听一点就是群魔乱舞,资源都分散了,还没有聚集出一支有足够实力能跟tesla对抗的队伍。等什么时候某个xxx品牌取代了现在造车新势力的说法,才有正面对抗的可能。
: ...................
--
FROM 106.39.67.*
一般8秒,有个视频,司机看导航15秒才警报。
【 在 GeneralMilk 的大作中提到: 】
: 8秒
:
--
FROM 106.39.67.*
连欧洲都没beta,我们都是云评测…
【 在 GeneralMilk 的大作中提到: 】
: 水木还是只有我一个是真正上手的fsd测试用户吗?怎么都在看视频?我也是视觉深度学习行业的,之前很质疑,也觉得是PPT,花了200刀月租加入fsd beta测试,测试之后就直接花了1万刀买fsd。当然并不是说明这个东西对谁都值1万刀,对我来说兴趣的价值有3k了,eap 2k,city street 2k 并且不停增值,resale value 3k并且不停增值,所以还是值的。使用之前最大的疑惑,就是担心视觉感知的准确率,使用后发现,视觉比想象中的靠谱很多,只有很罕见的场景,比如高速无保护左转,可能会受到视觉限制。当前绝大部分接管都是因为path planning和map data的问题造成的。
--
FROM 106.39.67.*
肯定是激光雷达精度高啊,问题是不需要毫米级精度啊,人开车的时候也是估计一个差不离的距离啊,窄路会车fsd知道收后视镜,高速上大货车压迫fsd也会收后视镜规避事故,辅助驾驶还需要哪样精度呢……
视觉可以做到近处四周厘米级精度,远处米级精度,这就就够了啊,再说激光雷达在200米外分辨率也一般啊……
我在2010年前后就做到了视频测速精度超过了手持雷达(普通标清监控摄像头vs2000-3000元设备),AI Day 专门列了数据曲线对比图,来佐证去掉雷达,在测距、测速方面完全没问题。
经验是很宝贵,但如果框住了思维定势…
【 在 iGeek 的大作中提到: 】
: 特斯拉通过用2D图像计算出来的3D点云对比激光雷达的精度相差多少?理论极限能达到一样吗?
:
--
修改:hsv FROM 223.104.40.*
FROM 223.104.40.*
特斯拉肯定不用于量产车,但他把激光雷达用在标注上了,可以粗糙的理解为,量产车的标尺是被激光雷达校准过的低精度版本…
我其实不反对激光雷达,只不过上周看到美帝名校关于激光雷达的目标检测模型相关的论文,个人对各自为战的传感器融合模式很没信心,进展太缓慢了…当然如果有更好的模型,不排除做的更好,就像fsd 10的视觉感知模型把自己上一代商业化的模型踩在脚下摩擦一样,还是模型建功了…也许鄙视视觉方案的大拿们对美帝研究成果都不屑一顾,或者身怀绝技,无论是理论还是工程,早就登峰造极了…
【 在 Way0n 的大作中提到: 】
: 所以以后是不用激光雷达的?
: - 来自 水木社区APP v3.5.3
:
: ...................
--
FROM 223.104.40.*
我当时是在限定场景,限定设备对比…
技术发展到现在,fsd取代雷达,精度略糙,应该没问题,尤其是近处几cm误差、速度误差也是1km/h内;除非大家认为,10米内,误差必须达到1cm内,才敢安心用,那就安心买激光雷达就是了……
我以前看到视频fsd能收后视镜躲避高速上货车压迫,刚发布的10.8车辆躲避一个摆放异常的雪糕筒(前面发过链接),左轮压线也没出本车道,精度应该够用了?
ps:双目视觉,近处误差厘米级,远处误差可达10米以上,所以专家会得出视觉不可用的结论,然而摄像机间的距离如果足够、模型也进步,这个误差可以缩短到可用(虽然仍远不如激光雷达毫米级精度),这就是为什么创新不好做,因为条条框框限定了思路…
相信大家在带一个愣头青、抑或顽固的老人,去开拓新项目的时候,经常会遇到无力感的时候…
【 在 toutouqi 的大作中提到: 】
: 视频测速精度超过雷达,这个不能笼统下结论吧,场景太多了。
--
修改:hsv FROM 223.104.40.*
FROM 223.104.40.*