目前公开信息来看, 至少笛子家,别说赶上特斯拉,和蔚小理都差了十万八千里。
【 在 Icanread 的大作中提到: 】
: 对大部分模型来说,为了保证响应速度,到设备上都量化(quantization),稀疏化(sparsification)过,推理(inference)花不了多少算力
: 那多出来那么多算力干啥呢?如果技术能力强的厂商,当然是federated learning了,一方面可以把采集的数据预处理,不需要大量上传实际训练数据,只上传梯度数据即可,另一方面还可以满足隐私和监管的需要,最后还极容易规模化,只要车卖的多,数据中心只需要把上传上来的梯度聚合一下即可,数据中心扩建需求也极大缓解了
--
FROM 124.127.200.*