1. 这种能“较好预测LLC miss”的场景是否有很多?基于DRAM的数据库是一个好场景,但是还有没有更普遍的?
Ling:不仅仅是数据库,根据我们计算CPI的公式显示,作为数据中心服务器的workload的瓶颈主要来自于L2 指令和数据的缺失,数据显示访问L3命中的延迟和缺失导致的内存访问延迟各占据CPI的30%,共有60%
2. 本质上相当于在线程内部构建了一个状态机,并发处理多个请求,而这不用协程也是可以实现的(参考上面的论文)。用协程只是让编程更好看,还能得到不错的性能。
Ling:不可以,虽然之前没有看过这篇论文,但是我们也考虑过用相同的方案,因为缓存(L2/L3)缺失与运行的软硬件环境紧密相关,随机性很大,如果使用静态的prefetch然后切换的方案,会做出很多无用的操作,尤其在云的需要不断迁移部署环境下。
--
修改:MaLing FROM 42.120.75.*
FROM 42.120.75.*