当然不是,因为服务器端的ai芯片永远会比ondevice上的好,这事是由于芯片工作的环境决定的
所以在车上,根本犯不着花大钱上最先进的芯片,因为你的模型一定是经过各种处理的轻量化模型
【 在 whistlingMe (哈哈) 的大作中提到: 】
: 你把“倒果为因”解释的明明白白啊。有没有可能是因为算力实在太差了,所以只能跑这种玩意?
: 如果车载端有5000t以上算力, 200GB以上的高速内存,实现l3~l5就真有希望了
:
: 【 在 Icanread 的大作中提到: 】
--
FROM 203.208.61.*