应用不一样吧,我接触的大部分是类似监控的实时视频分析
压缩码流直接被cpu通过pcie扔给GPU,GPU同时可以处理几十路码流的硬解码,把图像丢到显存
然后再进行算子运算
必须都是并行的,否则实时性来不及
cpu里才几个乘法器
非实时应用可能ok,中国搞ai最先就视频监控应用,因为中国市场是政府消费,监控是刚需
【 在 artech51 的大作中提到: 】
: 看来你还没明白
: 我在互联网公司工作过,很少有业务用gpu跑推理
: 单纯跑推理,因为内存交换的事实存在,虽然gpu推理快,但是gpu显存和系统内存数据交换需要时间啊,这个时间算上,推理和cpu差距撑死了也就5倍
: ...................
--
修改:salsalover FROM 221.218.138.*
FROM 221.218.138.*