- 主题:告诉你们为啥现在放FSD进来
算力不够啊,就像新手开车本来就不顺溜,你再拿个大喇叭在边上喊他就就会开了吗
【 在 whistlingMe 的大作中提到: 】
: 你平时走路主要靠眼睛,难道捂住耳朵关闭听力能走的更流畅?
: 端到端大模型时代根本不存在 “二者出矛盾的时候到底听谁的” 这个问题。输入就是越多越好。
: --
发自「今日水木 on iPhone 15 Plus」
--
FROM 120.229.76.*
雷达就是相当于耳朵,分辨率低还没有色彩,只是通过回波时间能感知到距离信息,左眼右眼那叫双目摄像头
【 在 baski 的大作中提到: 】
: 问题雷达和视频不是眼睛和耳朵,而是左眼和右眼看到的东西不一样大脑听谁的问题。
: --
发自「今日水木 on iPhone 15 Plus」
--
修改:kettle FROM 120.229.76.*
FROM 120.229.76.*
这种情况雷达肯定不会避障,而是会要求接管或者给你来脚急刹车
【 在 Suoni 的大作中提到: 】
: 现在大塑料袋突然飘过来是怎么处理的?
: 按视频没事撞过去还是按雷达紧急避障?
: --
发自「今日水木 on iPhone 15 Plus」
--
FROM 120.229.76.*
怎么没关系了,就像deepseek,671b的模型对算力的要求就是比70b的高,算力不够你硬上671b,老半天才给你吐一个字,就像开车前面有情况自驾老半天才反应,黄花菜都凉了
【 在 whistlingMe 的大作中提到: 】
:
: 和算力没关系,最初级手机能跑的模型都能处理多种输入。
: 有关系的是数据,只有训练数据量够,模型自然会学会怎么平衡视觉、激光、声波。
: 大脑走路时同时利用视觉和听力,也就小脑里很小一部分算力而已。
: --
:
发自「今日水木 on iPhone 15 Plus」
--
FROM 120.229.76.*
现在端侧算力就是有限的啊,关键是相比摄像头,激光雷达增加的距离数据对于开车就是无用信息,你开车需要知道前方障碍物的精确距离么,一个障碍离你100米还是101米对于你决策有区别么,你更需要关注的是前方障碍是什么,比如是大人还是小孩,这些对于你的驾驶决策有重大意义的信息,只有摄像头才能给你
【 在 whistlingMe 的大作中提到: 】
:
: 算力再怎么弱,再怎么小的模型多个传感器数据也不可能降低决策准确率啊,也就是算力也强多传感器优势越明显而已。
: --
:
发自「今日水木 on iPhone 15 Plus」
--
FROM 120.229.76.*
现在的核心问题是,一个通过眼睛都不会开车的人,你给他加上耳朵他会开的更好吗?还是继续训练用眼睛开车开的更好?
【 在 whistlingMe 的大作中提到: 】
: 我当然承认摄像头就可以解决大部分问题,但是多传感器数据肯定是还有提升的呀,之前提升的少而已,
: 人走路只靠眼睛就可以解决90%的场景,加上耳朵听只会更好一些
:
--
FROM 120.229.76.*
你碰到广告牌会怎么处理?拿个测距仪测一下广告牌离你多远?
【 在 MachvPicchv 的大作中提到: 】
: 纯摄像头先把广告牌上的汽车搞清楚再来说吧,还有地面上水倒映的汽车。
--
FROM 120.229.76.*
你加上激光雷达也解决不了啊
【 在 MachvPicchv 的大作中提到: 】
:
: 人脑处理过程我不知道,我只知道fsd处理不了。
:
: :
: --
:
发自「今日水木 on iPhone 15 Plus」
--
FROM 223.104.79.*
装了激光雷达那就是动不动刹车了,不会开车
【 在 MachvPicchv 的大作中提到: 】
:
: 雷达一扫就知道前方有没有障碍物,没有障碍物说明那就是个图片。
: --
:
发自「今日水木 on iPhone 15 Plus」
--
FROM 223.104.79.*