服务器训练出来的模型越来越强当然会导致车载的模型对算力需求越强,我认同
我只是说,车载芯片不需要追求最新的算力芯片,没有意义,因为在统一时刻车上,模型推理用不了那么多算力,因为在量化,稀疏化,蒸馏模型时,是按照市场中游水平的芯片调的。
【 在 whistlingMe (哈哈) 的大作中提到: 】
: 你为啥老说前后矛盾的话呢,量化模型是不是比非量化效果差? 为啥要量化,是不是因为车载芯片算力不够?
: 服务器上的AI算力越强,当然会导致车载芯片的算力需求更强,而不是更弱啊。
: DeepSeek开源了672B、32B、7B模型,是不是越大的效果越好?这三个量化后一样大吗?
:
--
FROM 203.208.61.*