- 主题:Thor 芯片有四档
四颗orin x做出最差智驾,几乎和小米78tpos算力的表现一个水平。
【 在 yuandao888 的大作中提到: 】
: 李斌咋了,蔚来自研的芯片算力和thor-x一样啊。
: 世界模型据说这个月能上,主要是上次某米事件,工信部审核周期变长了。
--
FROM 124.64.22.*
现在端到端模型当然是越强越好,更别说后面都会上世界大模型了,普遍都在百亿参数以上。
【 在 Icanread 的大作中提到: 】
: 我就是告诉你,实际上车上的ai芯片不需要太强,如果只是拿来推理模型,地平线足够用了,现在很多手机上的ai芯片推理大模型也够用了
: 在车上,响应时间也很重要,我相信那些模型都是做了各种处理的,inference所需的算力就更少了
: 车载的大算力芯片,真正能起到作用的就是帮厂家节省数据中心的建设费用和电费,对了电费也是个重要成本
--
FROM 124.64.22.*
这解释纯忽悠粉丝吧… 你自己看了不觉得牵强吗。 世界大模型也不是蔚来的专利啊,理想都用上了。
用别人几倍的成本做出更差的产品,一听就是蔚来的风格。
【 在 yuandao888 的大作中提到: 】
: 李斌貌似解释过,因为压根没和大家走一条线路,相当于跳了一步,很早就开始搞世界模型了。
: 就看世界模型出来后效果如何了。
--
FROM 124.64.22.*
…仔细读读你自己这句话是不是前后矛盾,量化了还保证不了响应时间,那不就算力不够吗
现在各家恰恰都在基于LLM做新方案…
32B的模型4bit量化,thor-x都吃力。但是32B的模型对于“世界知识”都有点不够。
现在车端算力是还差的多而不是过剩
【 在 Icanread 的大作中提到: 】
: 最后到设备上的模型都是量化稀疏化过的,压根就用不到那么大的模型,那么大的模型响应时间根本没法保证,这和llm有根本上的不同
--
FROM 124.64.22.*
可以友善打个赌,现在理想用差一半的算力做智驾吊打蔚来,
等蔚来的大模型上车仍然追不上理想。
【 在 yuandao888 的大作中提到: 】
: 世界大模型也不是蔚来的专利啊,理想都用上了。
--
FROM 124.64.22.*
如果你是从李斌嘴里理解什么是世界模型,那正常渠道也查不到这信息
蔚来现在用几倍成本做比别人差得多的产品,是一个客观事实,
然后你说“你等着,下一次迭代就会突然跃进超过别人” 它就不太可信
【 在 yuandao888 的大作中提到: 】
: 你最好查一下什么是世界模型,理想就是在蹭世界模型的概念
: 至于蔚来世界模型上车后有多强,让事实说话
: 至少蔚来目前所传递出来的信息来看,比理想的先进一代。
--
FROM 124.64.22.*
你的观点到底是啥,你发表的字应该顺理成章推出来结论:车载算力很重要
越大越好,越快越好,而时延又很重要
【 在 Icanread 的大作中提到: 】
: 咋矛盾了?任何时候,最先进的模型都不可能ondevice上跑起来,都必须用各种技术处理,可能是量化,可能是稀疏化,也可能是蒸馏,或者混合用然后finetune,
: 如果一台车上就能飞快的跑起来训练好的原始模型,那只能说这个模型太落后了
--
FROM 124.64.22.*
智驾啊,4颗 orin x 远落后于其他500算力的智驾,只能和不到100算力的比
【 在 yuandao888 的大作中提到: 】
: 蔚来现在用几倍成本做比别人差得多的产品,是一个客观事实,
--
FROM 124.64.22.*
明明刚说了算力不够时 延时太高……
感觉你真正的观点可能是:车载算力离跑大模型的要求还差得多,干脆放弃治疗,跑一些轻量级专用模型
【 在 Icanread 的大作中提到: 】
: 我的观点是车载ai芯片不需要算力太高端的,没有意义
: 高端的ai芯片本质上是为车厂训练模型省芯片的钱和电
--
FROM 124.64.22.*
你把“倒果为因”解释的明明白白啊。有没有可能是因为算力实在太差了,所以只能跑这种玩意?
如果车载端有5000t以上算力, 200GB以上的高速内存,实现l3~l5就真有希望了
【 在 Icanread 的大作中提到: 】
: 因为现实中,任何在车上跑的,都是用各种技术处理过的轻量化模型,这玩意不需要多少算力
:
:
--
FROM 124.64.22.*