- 主题:特斯拉的fsd是目前最先进的智驾系统吗
你是不是不知道图片到视频数据是多少倍的增加?
【 在 djkstra 的大作中提到: 】
: 你以为呢,看看图片生成跟视频生成的算力需求差别有多大
:
--
FROM 218.247.161.*
哥们,你知道输入数据的一维和空间上增加一维不是一回事吧
假设视频流是MxNxT,激光数据流是XxYxT
那你输入的数据只是增多了XxY/MxN,(已知激光雷达分辨率远低于视频,所以XxY/MxN是很小的一个比例
而图片到视频的维度的差距是MxN到MxNxT,是T倍的关系,一分钟视频按每秒24帧,那就是1440倍的差距
【 在 djkstra 的大作中提到: 】
: 只增加了一维
:
--
修改:alucardy FROM 218.247.161.*
FROM 218.247.161.*
人看到路上出来一群羊会知道那是一群羊
AI之前的训练数据没有羊,那就分辨不出来那是羊
而雷达会告诉你,前面多少米有一坨障碍物
这就是区别
【 在 vta 的大作中提到: 】
: 你怎么开1车估算距离,AI就怎么估算
: 激光雷达出来之前人们是怎么开1车的?
:
: ...................
--
FROM 218.247.161.*
那可不好说,之前撞白色货车,撞白色羊的案例又不是没有
【 在 vta 的大作中提到: 】
: AI即使不知道那东西叫“羊”,也知道那是障碍物。
:
: 有一期测试纯视觉的视频,路中间放了一张大图片,模拟假的路,其实是堵墙。纯视觉都可以分辨出来刹停。
: ...................
--
FROM 218.247.161.*
都不完美
你怎么能说雷达路线一定不对呢?
【 在 vta 的大作中提到: 】
: 激光雷达撞大公共、撞交警、撞水泥车、撞铁架子的案例又不是没有
:
--
FROM 218.247.161.*
你护坑的只是FSD罢了
FSD撞的是白色卡车
你咋决口不提呢
【 在 vta 的大作中提到: 】
: 我搜的是FSD撞羊,结果没找到FSD撞羊,反而搜到了带激光雷达的撞羊。
:
: 激光雷达并没有解决你说的撞羊问题。所以激光雷达没用。没用还讨论啥对不对?就算以后带激光雷达的车不撞羊了,那也是视觉能力强了。并不是激光雷达能避免撞羊。
: ...................
--
FROM 218.247.161.*
你要这么否认的话,出了问题就是技术路线不对,那纯视觉也不对,现在所有的路线都不对
【 在 vta 的大作中提到: 】
: 我搜的是FSD撞羊,结果没找到FSD撞羊,反而搜到了带激光雷达的撞羊。
:
: 激光雷达并没有解决你说的撞羊问题。所以激光雷达没用。没用还讨论啥对不对?就算以后带激光雷达的车不撞羊了,那也是视觉能力强了。并不是激光雷达能避免撞羊。
: ...................
--
FROM 218.247.161.*
你这是高估了视觉训练的能力
训练集里不可能放大量的小概率出现的物体
你提高了白色卡车的样本,那红色锥筒的权重就下降了,你加了红色锥筒的权重,其他什么东西的权重就下降了
端到端你输入什么,他就理解什么
你车端算力加一百遍,数据一样,算法一样,结果不会有太大的差别
【 在 kettle 的大作中提到: 】
: 这个道理很简单,人类有眼睛有头脑就会驾驶,压根儿不需要什么雷达,现在AI智驾不行不是因为感知层的摄像头看不见,而是执行层算力处理不过来,脑门上再装个激光雷达除了当摆设让配置单好看以外没任何作用,实践看激光雷达也是该撞一样撞没比纯视觉的强,反而多了个干扰源容易动不动就幽灵刹停马路中间傻等,而纯视觉随着算力不断提高数据不断丰富驾驶水平接近甚至超过人类是必然趋势
:
: 发自「今日水木 on iPhone 15 Plus」
--
FROM 218.247.161.*
1. fsd有不靠谱的案例
2. 激光雷达又不靠谱的案例
3. 你的结论是激光雷达没用,我的结论是俩都不完美,都应该继续试
别被自己开的车影响自己的逻辑
【 在 vta 的大作中提到: 】
: 我才没有护坑FSD,我对FSD不感冒,除非出来能睡觉的FSD我才有兴趣。
:
: 我说的是激光雷达并没有比纯视觉更好。我还护坑小鹏用纯视觉呢,我还护坑智界用纯视觉呢。
: ...................
--
FROM 218.247.161.*
你的逻辑已经坐定了“纯视觉好”
都已经脑补出怎么都是“纯视觉的功劳”了
那还有什么讨论的必要
【 在 vta 的大作中提到: 】
: 你的逻辑错误
:
: 1、你说早期纯视觉出现问题,探测不到白色卡车、羊等。
: ...................
--
FROM 218.247.161.*