- 主题:Thor 芯片有四档
因为现实中,任何在车上跑的,都是用各种技术处理过的轻量化模型,这玩意不需要多少算力
【 在 whistlingMe (哈哈) 的大作中提到: 】
: 明明刚说了算力不够时 延时太高……
: 感觉你真正的观点可能是:车载算力离跑大模型的要求还差得多,干脆放弃治疗,跑一些轻量级专用模型
: 【 在 Icanread 的大作中提到: 】
: : 我的观点是车载ai芯片不需要算力太高端的,没有意义
--
FROM 203.208.61.*
个人认为目前的ai技术,无法真正解决自动驾驶问题
我觉得杨立昆说的对,现在的模型本质上是统计建模技术,是通过学习训练数据中的统计规律来完成相关任务,这对做自动驾驶来说是个重大缺陷
因为我们无法在训练数据中枚举所有事故的可能性
【 在 yuandao888 (yes!) 的大作中提到: 】
: 原因都已经说了啊,世界模型上车后看效果。
: 如果还是很渣,就说明蔚来这块之前的投入有问题。
: 但至少目前,人家的解释非常清楚,人家没有搞那种大路货的端到端,所以耽误时间了。
: 另外, 我对蔚来的辅助驾驶安全第一的策略是认可的,aes很好用。
--
FROM 203.208.61.*
当然不是,因为服务器端的ai芯片永远会比ondevice上的好,这事是由于芯片工作的环境决定的
所以在车上,根本犯不着花大钱上最先进的芯片,因为你的模型一定是经过各种处理的轻量化模型
【 在 whistlingMe (哈哈) 的大作中提到: 】
: 你把“倒果为因”解释的明明白白啊。有没有可能是因为算力实在太差了,所以只能跑这种玩意?
: 如果车载端有5000t以上算力, 200GB以上的高速内存,实现l3~l5就真有希望了
:
: 【 在 Icanread 的大作中提到: 】
--
FROM 203.208.61.*
我只是看到了专业相关的话题,说说感想而已
waymo做了那么多年,依然进展不大,我觉得就是因为杨立昆说的这个目前ai技术的固有问题,现在所有的大模型本质上是个统计模型
【 在 yuandao888 (yes!) 的大作中提到: 】
: 我认为目前的电池技术,无法真正解决清洁能源的问题
: 所以呢,纯电、增程、混动都没有价值?
:
: 你不要因为自己支持的品牌这块做得很垃圾,就用这种话术去彻底否定这件事。
--
FROM 203.208.61.*
服务器训练出来的模型越来越强当然会导致车载的模型对算力需求越强,我认同
我只是说,车载芯片不需要追求最新的算力芯片,没有意义,因为在统一时刻车上,模型推理用不了那么多算力,因为在量化,稀疏化,蒸馏模型时,是按照市场中游水平的芯片调的。
【 在 whistlingMe (哈哈) 的大作中提到: 】
: 你为啥老说前后矛盾的话呢,量化模型是不是比非量化效果差? 为啥要量化,是不是因为车载芯片算力不够?
: 服务器上的AI算力越强,当然会导致车载芯片的算力需求更强,而不是更弱啊。
: DeepSeek开源了672B、32B、7B模型,是不是越大的效果越好?这三个量化后一样大吗?
:
--
FROM 203.208.61.*
这不排除,但我觉得是个统计模型也没错
用来解决自动驾驶就是个重大缺陷
【 在 yuandao888 (yes!) 的大作中提到: 】
: 辛顿还说ai会毁掉人类呢。。。。
: 【 在 Icanread 的大作中提到: 】
: : 我只是看到了专业相关的话题,说说感想而已
: : waymo做了那么多年,依然进展不大,我觉得就是因为杨立昆说的这个目前ai技术的固有问题,现在所有的大模型本质上是个统计模型
--
FROM 203.208.61.*