对大部分模型来说,为了保证响应速度,到设备上都量化(quantization),稀疏化(sparsification)过,推理(inference)花不了多少算力
那多出来那么多算力干啥呢?如果技术能力强的厂商,当然是federated learning了,一方面可以把采集的数据预处理,不需要大量上传实际训练数据,只上传梯度数据即可,另一方面还可以满足隐私和监管的需要,最后还极容易规模化,只要车卖的多,数据中心只需要把上传上来的梯度聚合一下即可,数据中心扩建需求也极大缓解了
【 在 yuandao888 (yes!) 的大作中提到: 】
: 别搞笑了
: 你说这话恰恰说明了你完全不懂。
: 要么端侧算力足,要么服务侧算力足,两头都不占,你可能有天顶星科技。
: 【 在 Icanread 的大作中提到: 】
--
FROM 203.208.61.*