- 主题:Re: 阿尔法S的车身扭转刚度是60000
你这就不客观。
大数据是软件,激光雷达是硬件。
摄像头都一样的话,别家也有相同的数据,但是tsl没有激光雷达的话,就比别家少一块数据。
数据一样的部分,大家都跑大数据,差距没多大。
但是你数据少一块,那效果肯定差很多。
就像tsl会撞白车厢,你拿个激光雷达的车试试能撞上不。
【 在 hsv 的大作中提到: 】
: 你说华为研发可以不反对,但是“ 辅助驾驶主要靠的不是计算能力,而是硬件的可靠性和算法的先进性。”这个就是你的认知局限性了。要想达到更好的泛化性能,数据和算力是关键。华为用激光雷达,依然避免不了多传感器融合模型所需要的天量数据。
: 后面视觉部分,感觉你也不理解,没有讨论的必要了。
: :
--
FROM 218.241.131.*
你这明显不客观了
纯视觉肯定有识别不了的东西,但是雷达可以告诉你100米外有个静止的物体
至于你说左右互搏?为啥要左右互搏,全都当训练数据去训练就好了。没理由纯视觉训练会比“视觉+知道100米外有个东西”还好。
唯一的瓶颈可能在算力,激光雷达多了数据的维度,可能算不过来
【 在 hsv 的大作中提到: 】
: “但是你数据少一块,那效果肯定差很多。”
: 多传感器融合,如果左右手互搏,采纳哪一部分,没有100%靠谱的src……
: “就像tsl会撞白车厢,你拿个激光雷达的车试试能撞上不。”
: ...................
--
修改:dyatpk FROM 218.241.131.*
FROM 218.241.131.*
辅助驾驶反正就那么回事 低点就低点 反正有人把关
遇到白色卡车人接管就好了
自动驾驶纯视觉根本不够啊
总有意外的东西出现在马路上,样本里没有的东西,视觉系统认不出来,但是雷达会识别出来有个固体在前面
【 在 hsv 的大作中提到: 】
: 特斯拉去掉雷达的原因在知乎大婶以及aiday已经阐述的很清晰了,精度视觉足够好,误检视觉可以做到更低,这两条就够了。
: 看来数据、模型复杂度、计算量这些所有传感器都避不开。hw3.0的算力支持的模型天花板在哪儿我也很好奇,毕竟数据再nb,模型受限于硬件支持的精度有天花板。
--
FROM 218.241.131.*
哥们,你没发现你逻辑是死循环的吗
因为特斯拉用的纯视觉方案,所以纯视觉方案好,所以特斯拉这样是对的。
正常人想着多个雷达,甚至多好多个雷达,肯定增强了识别物体的效果,只有你就掉进了纯视觉好的坑里出不来了。
【 在 hsv 的大作中提到: 】
: 纯视觉方案,说白了就是低成本,能达到高可用就行了。
: 白色卡车和工程车明显是单帧图像的问题,之前的问题除了样本空间覆盖问题,神经网络也不能利用空间、时间信息。
: dojo上线以后,随着样本的激增,最难的还是一些摇摆样本的问题。
--
FROM 218.241.131.*
如果加上雷达都不行的话,纯视觉更不行,这就说明光靠车来识别外部环境这条路不通。
车路协同可能是更好的出路。
anyway,我对自动驾驶在10年内都不看好,老老实实宣传辅助驾驶吧。
【 在 hsv 的大作中提到: 】
: 雷达的误检是难以避免的,我前面也说了,特斯拉去掉雷达,是由理论数据的。况且多数据融合,涉及到策略,人工策略只能增加,是不可能做到极致的。
: 去掉雷达,恰好是纯视觉方案,低成本的达到了更好的效果。
: 激光雷达方案,在小样本初期,可能会优于纯视觉方案,在后期就不一定了。
--
FROM 218.241.131.*
你这就不客观了
他说的意思是多个信号冲突。实际上神经网络也好,深度学习也好,都是数据加一些,一样可以出结果的,会出一个综合所有观测数据的统一的信号,不是出两个信号。没理由不放雷达数据,数据更少的情况下,结果会更好。
另外,你不要觉得和你观点相反的就是吹别的品牌。
你用脑子想一想,多个雷达你知道那里有个东西,结果会变坏吗?
【 在 jkhu 的大作中提到: 】
: 他的意思是不是多个传感器发出了不同结果的信号,到底以哪个传感器为准?所以很多情况还得看实际使用,还没实际应用数据的就先别吹了。
: 发自「今日水木 on M2007J1SC」
--
FROM 218.241.131.*
别扯了,都是你脑补的
视觉识别怎么就比雷达有更多信息了
视觉识别要从一个图片里把物体抠出来,怎么可能比雷达准
【 在 west 的大作中提到: 】
: 雷达的问题是误检率,你不知道是什么东西导致警报
: 视觉有更多信息可以分辨是不是误检
:
--
FROM 218.241.131.*
你这属于不懂AI啊
AI是把所有的数据输进模型里出一个统一的结论,谁跟你说是视觉出一个结论,雷达出一个结论再判断。
加一个雷达相当于加了一维甚至是几维的数据
【 在 west 的大作中提到: 】
: 多传感器有个优先级问题,
: 如果雷达告诉你前面有障碍物,而视觉告诉你前面啥都没有,你信谁?
:
--
FROM 218.241.131.*
你才胡扯呢,你升级分辨率不用重新学习?
同类雷达换型号,和摄像头换分辨率是一个难度。
甚至难度更小,因为雷达的返回可以设定是一样的,摄像头分辨率提升了,数据量必须提升,要不然提升了就白提升了。
【 在 west 的大作中提到: 】
: 你才不懂,视觉不同传感器都可以用同一个神经网络,雷达你每换一个型号都要重新训练
:
--
FROM 218.241.131.*
视觉点阵,你说的是像素点吗?那不大多是无效数据吗?
一个图片含有一个物体,像素点是几百万甚至几千万,你能说数据量大就好吗?
视觉的问题是怎么分辨真实环境和图片,这是无解的。
我在马路上放一张蓝天白云马路的画,纯视觉怎么识别,不可能识别出来。
这就是特斯拉前一阵撞白车厢的原因。
你加一个雷达,立马就解决了。
【 在 west 的大作中提到: 】
: 因为视觉点阵数据量大啊,雷达每秒钟才多少个数据
:
--
FROM 218.241.131.*