就是在x86系统上,有一个需要大概几千个时钟周期的函数,前后有依赖,不太好并行处理,基本上可以认为需要顺序执行。每秒需要执行几亿次,每次和每次倒是可以并行处理
现在需要剥离出来单独加速,用arm和fpga处理的吞吐上限大概能多少?达到上限时总体成本约是多少?
【 在 leadu 的大作中提到: 】
: 云计算行业的问题主要来自于,在100g带宽的情况下,cpu显得太慢了
: 64小包留给软件工程师的时间,最多也就30左右的时钟周期,对于sdn来说完全不够用
: 所以微软在2014年左右提出了fpga加速,2018年左右在他的全部数据中心完成建设。现在网上随便买它的accelerated network,都是fpga加速的
: ...................
--
FROM 221.221.18.*