- 主题:Thor 芯片有四档
当然不是,因为服务器端的ai芯片永远会比ondevice上的好,这事是由于芯片工作的环境决定的
所以在车上,根本犯不着花大钱上最先进的芯片,因为你的模型一定是经过各种处理的轻量化模型
【 在 whistlingMe (哈哈) 的大作中提到: 】
: 你把“倒果为因”解释的明明白白啊。有没有可能是因为算力实在太差了,所以只能跑这种玩意?
: 如果车载端有5000t以上算力, 200GB以上的高速内存,实现l3~l5就真有希望了
:
: 【 在 Icanread 的大作中提到: 】
--
FROM 203.208.61.*
蔚来绝对没有能力自己训练出世界大模型,目前车企普遍也就是从开源的qwen-vl等模型上迁移训练而已。
而且4颗 orinx其实几乎没有意义,因为orin芯片没有芯片间高速互联,最高也就20~30多GB/S速度,4颗芯片加起来顶多达到350t算力的水平。所以蔚来用总算力宣传就是纯粹忽悠人。
业界用2颗orinx都方案是分开跑两个不同的模型,多少有一点意义。
【 在 yuandao888 的大作中提到: 】
: 原因都已经说了啊,世界模型上车后看效果。
: 如果还是很渣,就说明蔚来这块之前的投入有问题。
: 但至少目前,人家的解释非常清楚,人家没有搞那种大路货的端到端,所以耽误时间了。
: ...................
--
FROM 124.64.22.*
我认为目前的电池技术,无法真正解决清洁能源的问题
所以呢,纯电、增程、混动都没有价值?
你不要因为自己支持的品牌这块做得很垃圾,就用这种话术去彻底否定这件事。
【 在 Icanread 的大作中提到: 】
: 个人认为目前的ai技术,无法真正解决自动驾驶问题
: 我觉得杨立昆说的对,现在的模型本质上是统计建模技术,是通过学习训练数据中的统计规律来完成相关任务,这对做自动驾驶来说是个重大缺陷
: 因为我们无法在训练数据中枚举所有事故的可能性
--
FROM 124.127.200.*
你为啥老说前后矛盾的话呢,量化模型是不是比非量化效果差? 为啥要量化,是不是因为车载芯片算力不够?
服务器上的AI算力越强,当然会导致车载芯片的算力需求更强,而不是更弱啊。
DeepSeek开源了672B、32B、7B模型,是不是越大的效果越好?这三个量化后一样大吗?
【 在 Icanread 的大作中提到: 】
: 当然不是,因为服务器端的ai芯片永远会比ondevice上的好,这事是由于芯片工作的环境决定的
: 所以在车上,根本犯不着花大钱上最先进的芯片,因为你的模型一定是经过各种处理的轻量化模型
--
FROM 124.64.22.*
蔚来绝对没有能力自己训练出世界大模型,
------你咋知道的?
如果时间再往前几年,你也会说蔚来不可能生产出5nm的智能驾驶芯片。
还是那句话,等世界模型上车后看结果,事实证明一切,也许很不错,也许马马虎虎,也许很拉垮,但在结果出来之前,不要YY。
【 在 whistlingMe 的大作中提到: 】
: 蔚来绝对没有能力自己训练出世界大模型,目前车企普遍也就是从开源的qwen-vl等模型上迁移训练而已。
: 而且4颗 orinx其实几乎没有意义,因为orin芯片没有芯片间高速互联,最高也就20~30多GB/S速度,4颗芯片加起来顶多达到350t算力的水平。所以蔚来用总算力宣传就是纯粹忽悠人。
: 业界用2颗orinx都方案是分开跑两个不同的模型,多少有一点意义。
: ...................
--
FROM 124.127.200.*
我只是看到了专业相关的话题,说说感想而已
waymo做了那么多年,依然进展不大,我觉得就是因为杨立昆说的这个目前ai技术的固有问题,现在所有的大模型本质上是个统计模型
【 在 yuandao888 (yes!) 的大作中提到: 】
: 我认为目前的电池技术,无法真正解决清洁能源的问题
: 所以呢,纯电、增程、混动都没有价值?
:
: 你不要因为自己支持的品牌这块做得很垃圾,就用这种话术去彻底否定这件事。
--
FROM 203.208.61.*
辛顿还说ai会毁掉人类呢。。。。
【 在 Icanread 的大作中提到: 】
: 我只是看到了专业相关的话题,说说感想而已
: waymo做了那么多年,依然进展不大,我觉得就是因为杨立昆说的这个目前ai技术的固有问题,现在所有的大模型本质上是个统计模型
:
--
FROM 124.127.200.*
服务器训练出来的模型越来越强当然会导致车载的模型对算力需求越强,我认同
我只是说,车载芯片不需要追求最新的算力芯片,没有意义,因为在统一时刻车上,模型推理用不了那么多算力,因为在量化,稀疏化,蒸馏模型时,是按照市场中游水平的芯片调的。
【 在 whistlingMe (哈哈) 的大作中提到: 】
: 你为啥老说前后矛盾的话呢,量化模型是不是比非量化效果差? 为啥要量化,是不是因为车载芯片算力不够?
: 服务器上的AI算力越强,当然会导致车载芯片的算力需求更强,而不是更弱啊。
: DeepSeek开源了672B、32B、7B模型,是不是越大的效果越好?这三个量化后一样大吗?
:
--
FROM 203.208.61.*
这不排除,但我觉得是个统计模型也没错
用来解决自动驾驶就是个重大缺陷
【 在 yuandao888 (yes!) 的大作中提到: 】
: 辛顿还说ai会毁掉人类呢。。。。
: 【 在 Icanread 的大作中提到: 】
: : 我只是看到了专业相关的话题,说说感想而已
: : waymo做了那么多年,依然进展不大,我觉得就是因为杨立昆说的这个目前ai技术的固有问题,现在所有的大模型本质上是个统计模型
--
FROM 203.208.61.*
因为比亚迪这块很垃圾,所以是缺陷
我替你说了。
不要因为这块落后影响股价就行。
【 在 Icanread 的大作中提到: 】
: 这不排除,但我觉得是个统计模型也没错
: 用来解决自动驾驶就是个重大缺陷
--
FROM 124.127.200.*