- 主题:Thor 芯片有四档
地平线的东西其实没那么好用
【 在 Icanread 的大作中提到: 】
: 我就是告诉你,实际上车上的ai芯片不需要太强,如果只是拿来推理模型,地平线足够用了,现在很多手机上的ai芯片推理大模型也够用了
: 在车上,响应时间也很重要,我相信那些模型都是做了各种处理的,inference所需的算力就更少了
: 车载的大算力芯片,真正能起到作用的就是帮厂家节省数据中心的建设费用和电费,对了电费也是个重要成本
--
FROM 114.246.237.*
可以友善打个赌,现在理想用差一半的算力做智驾吊打蔚来,
等蔚来的大模型上车仍然追不上理想。
【 在 yuandao888 的大作中提到: 】
: 世界大模型也不是蔚来的专利啊,理想都用上了。
--
FROM 124.64.22.*
再好的芯片都没用
手机CPU都虚焊
汽车也是手机3年一换?
【 在 yuandao888 的大作中提到: 】
: 第一档:Thor-x 1000T,一颗抵得上Orin-x四颗,蔚来老款四颗才超过1000T,x和蔚来神矶芯片算力差不多。
: 第二档:Thor-s 700T算力
: 第三档:Thor-U 500T算力,理想最高端车型搭载一颗。
: ...................
--
FROM 119.136.89.*
你最好查一下什么是世界模型,理想就是在蹭世界模型的概念
至于蔚来世界模型上车后有多强,让事实说话
至少蔚来目前所传递出来的信息来看,比理想的先进一代。
【 在 whistlingMe 的大作中提到: 】
: 可以友善打个赌,现在理想用差一半的算力做智驾吊打蔚来,
: 等蔚来的大模型上车仍然追不上理想。
:
--
FROM 124.127.200.*
咋矛盾了?任何时候,最先进的模型都不可能ondevice上跑起来,都必须用各种技术处理,可能是量化,可能是稀疏化,也可能是蒸馏,或者混合用然后finetune,
如果一台车上就能飞快的跑起来训练好的原始模型,那只能说这个模型太落后了
【 在 whistlingMe (哈哈) 的大作中提到: 】
: …仔细读读你自己这句话是不是前后矛盾,量化了还保证不了响应时间,那不就算力不够吗
: 现在各家恰恰都在基于LLM做新方案…
: 32B的模型4bit量化,thor-x都吃力。但是32B的模型对于“世界知识”都有点不够。
: 现在车端算力是还差的多而不是过剩
--
FROM 203.208.61.*
基本的算力都不够,能有啥好模型的????
端侧高算力是非常务实的,除非你有特斯拉那么有钱,狂砸钱建数据中心,特斯拉有很多算力数据中心的核心技术
【 在 Icanread 的大作中提到: 】
: ok,你有花钱买好芯片为车厂提高模型性能的觉悟就行
: 我意思是,如果只是用模型,开车时推理模型,地平线就够用了,如果你说,我愿意花更多钱帮助车厂买芯片和电力训练更好的模型,那我没意见
--
FROM 124.127.200.*
我说了,ondevice上可以装高性能ai芯片,无非卖的贵一点,耗电一点。对车本身的自动驾驶性能作用不大,主要是对车厂训练模型成本降低了
【 在 yuandao888 (yes!) 的大作中提到: 】
: 基本的算力都不够,能有啥好模型的????
: 端侧高算力是非常务实的,除非你有特斯拉那么有钱,狂砸钱建数据中心,特斯拉有很多算力数据中心的核心技术
: 【 在 Icanread 的大作中提到: 】
: : ok,你有花钱买好芯片为车厂提高模型性能的觉悟就行
--
FROM 203.208.61.*
国产最强的智驾芯片就是神玑9031,5nm。
舒马赫和图灵应该是7nm的,当然这两个芯片尤其是舒马赫,啥时候能上市还遥遥无期呢。
地平线在我看来,直接定位低端市场是最好的,给笛子、吉利之类的厂家供货。
【 在 i925XE 的大作中提到: 】
: 地平线的东西其实没那么好用
--
FROM 124.127.200.*
如果你是从李斌嘴里理解什么是世界模型,那正常渠道也查不到这信息
蔚来现在用几倍成本做比别人差得多的产品,是一个客观事实,
然后你说“你等着,下一次迭代就会突然跃进超过别人” 它就不太可信
【 在 yuandao888 的大作中提到: 】
: 你最好查一下什么是世界模型,理想就是在蹭世界模型的概念
: 至于蔚来世界模型上车后有多强,让事实说话
: 至少蔚来目前所传递出来的信息来看,比理想的先进一代。
--
FROM 124.64.22.*
笛子在疯狂建数据中心,疯狂买卡吗?哪怕是疯狂租借算力也可以啊
啥消息都没有,因为大额采购必然要发公告的。。
那高级的辅助驾驶从何而来?
【 在 Icanread 的大作中提到: 】
: 我说了,ondevice上可以装高性能ai芯片,无非卖的贵一点,耗电一点。对车本身的自动驾驶性能作用不大,主要是对车厂训练模型成本降低了
:
--
FROM 124.127.200.*