我说的很清楚就是车载推理呀。 训练上华为的晟腾910B基本能追平英伟达A100的7~8成,但B200马上就要卖了,基本也是差2代 5年左右的水平。
2000t算力的Thor芯片原计划是2024年上车,但是这几年卖训练卡挣钱实在太容易,所以推迟车载的芯片。
ChatGPT之后,恐怕业界“大就是好”的技术路线思想已经深入人心,而且也有很多实证了。
【 在 hsv 的大作中提到: 】
: 你把训练算力和车载推理算力搞混了。训练算力,去年百度3EFLOPS,华为不到3(今年华为3.1),现在特斯拉算力可能在30E左右,原来规划10月份到100E。
: OrinX是504TOPS, hw3算力是144TOPS,hw4和orinx差不多,目前看端到端以transformer为核心,计算比较稀疏,个人推断算力约束不是太大问题,核心是显存,因为要记忆很多上下文。hw3上了E2E反而提升了fps(受限于摄像头的fps了)。更大的算力,可以用更高分辨率的摄像头,看得更远,用更深的网络,性能更好,这是毋庸置疑的。
: ps:去年8月老马直播v12,那个模型从22年就开始训练了,那时特斯拉好像没有1w块h100,算力在3E左右,标注团队的算力在600P左右。。。
: ...................
--
FROM 221.216.116.*