- 主题:Thor 芯片有四档
第一档:Thor-x 1000T,一颗抵得上Orin-x四颗,蔚来老款四颗才超过1000T,x和蔚来神矶芯片算力差不多。
第二档:Thor-s 700T算力
第三档:Thor-U 500T算力,理想最高端车型搭载一颗。
第四档:Thor-z 300T算力
国产地平线主流产品一般是200T以下,比如理想非高端车型会搭载。
--
FROM 124.127.200.*
李斌咋了,蔚来自研的芯片算力和thor-x一样啊。
世界模型据说这个月能上,主要是上次某米事件,工信部审核周期变长了。
【 在 oBigeyes 的大作中提到: 】
: 李斌:哪壶不开提哪壶
:
--
FROM 124.127.200.*
理想的新款车是不是都开始交付了,交付肯定就搭载了吧。
【 在 burenshi 的大作中提到: 】
: 什么时候能开始实装发货?
--
FROM 124.127.200.*
需要一个平衡,但算力是基础。
【 在 Xjt 的大作中提到: 】
: 没有顶级激光雷达和4D毫米波雷达,芯片再高档,毫无意义
--
FROM 124.127.200.*
反智言论少发一些,没意义。
【 在 Icanread 的大作中提到: 】
: 这种车载的ai芯片,快没卵用,用来推理模型,地平线足够用了
: 再快,也就是给车厂做federated learning用
: 属于是车主花钱帮车厂分担训练模型的数据中心的建设成本了
--
FROM 124.127.200.*
别搞笑了
你说这话恰恰说明了你完全不懂。
要么端侧算力足,要么服务侧算力足,两头都不占,你可能有天顶星科技。
【 在 Icanread 的大作中提到: 】
: 模型训练和推理,对此我正好了解的很清楚
:
--
FROM 124.127.200.*
可以学特斯拉的模式,国内除了华为还凑合,其他厂家有多少算力资源。。。
【 在 Icanread 的大作中提到: 】
: 对大部分模型来说,为了保证响应速度,到设备上都量化(quantization),稀疏化(sparsification)过,推理(inference)花不了多少算力
: 那多出来那么多算力干啥呢?如果技术能力强的厂商,当然是federated learning了,一方面可以把采集的数据预处理,不需要大量上传实际训练数据,只上传梯度数据即可,另一方面还可以满足隐私和监管的需要,最后还极容易规模化,只要车卖的多,数据中心只需要把上传上来的梯度聚合一下即可,数据中心扩建需求也极大缓解了
--
FROM 124.127.200.*
目前公开信息来看, 至少笛子家,别说赶上特斯拉,和蔚小理都差了十万八千里。
【 在 Icanread 的大作中提到: 】
: 对大部分模型来说,为了保证响应速度,到设备上都量化(quantization),稀疏化(sparsification)过,推理(inference)花不了多少算力
: 那多出来那么多算力干啥呢?如果技术能力强的厂商,当然是federated learning了,一方面可以把采集的数据预处理,不需要大量上传实际训练数据,只上传梯度数据即可,另一方面还可以满足隐私和监管的需要,最后还极容易规模化,只要车卖的多,数据中心只需要把上传上来的梯度聚合一下即可,数据中心扩建需求也极大缓解了
--
FROM 124.127.200.*
你有点搞笑,你说端侧算力不重要,因为服务端算力够就可以,我认同啊
关键是,你服务端算力够吗?你服务端算力不够,端侧算力也不够,你这样偷换概念有啥意义?
【 在 Icanread 的大作中提到: 】
: 我就是告诉你,实际上车上的ai芯片不需要太强,如果只是拿来推理模型,地平线足够用了,现在很多手机上的ai芯片推理大模型也够用了
: 在车上,响应时间也很重要,我相信那些模型都是做了各种处理的,inference所需的算力就更少了
: 车载的大算力芯片,真正能起到作用的就是帮厂家节省数据中心的建设费用和电费,对了电费也是个重要成本
--
FROM 124.127.200.*
李斌貌似解释过,因为压根没和大家走一条线路,相当于跳了一步,很早就开始搞世界模型了。
就看世界模型出来后效果如何了。
【 在 whistlingMe 的大作中提到: 】
: 四颗orin x做出最差智驾,几乎和小米78tpos算力的表现一个水平。
:
--
FROM 124.127.200.*