- 主题:机器学习训练GPU大概能比CPU快多少?
我用ResNet进行图像分类(由于我的图像比较小,所以模型的参数比论文上的少一些)
现在是在普通CPU上进行训练模型的,感觉比较慢,正在考虑是否花时间精力来改用GPU
训练模型
用GPU的话大概能快多少呢?
二者的硬件对比是:CPU Xeon E5-2678 2.5GHz,训练的时候用6个核
GPU就用Tesla P40 或Tesla P100
--
FROM 208.82.100.*
我的应用图片比较小32x32,灰度的
如果只是快10倍我肯定就不换了,因为GPU的机时费就是CPU的10倍
快100倍的话肯定是值得换的
【 在 clxie (eddy) 的大作中提到: 】
: 哈哈 看图片大小 应该很快 gpu比cpu快几十倍? 没有具体比较过 也许cpu几个小时 gpu只要几分钟就迭代完了
--
FROM 208.82.100.*
Xeon E5-2678 2.5GHz 用其中的6个核
对比Tesla P100或p40
【 在 zszqzzzf (炼狱天使——反者道之动) 的大作中提到: 】
: 10倍-100倍,取决于什么cpu和gpu进行对比。
--
FROM 208.82.100.*
我用的机器都是租的,成本不在机器本身,而是花时间精力来修改代码来更换系统
【 在 sunwaybupt (sunway) 的大作中提到: 】
: 在阿里云上租个GPU服务器体验一下就知道了
--
FROM 208.82.100.*
我的应用在CPU上训练要几个小时,但问题是要不断调参训练很多次
另外,也在考虑搞更多的数据,用更大的模型
【 在 ECUCoder (Engineer) 的大作中提到: 】
: 这个主要取决于现在CPU需要多少时间,如果现在时间是以小时为单位的话,比如需要几小时到几十个小时,那就无所谓了,等呗。如果现在时间是以周为单位的话,比如需要几周到几十周,那就意义重大了。
: 一般可以快几十倍的,原本CPU上跑一个月的训练任务上合适的GPU通常可以在一天内完成。
--
FROM 208.82.100.*
CPU来训练最不爽的是多核并行太差。上8个核只能比单核快一倍(大概)
我想原因是每个iteration都要同步。
这样的话模型网络小的话对CPU多核是不是不友好啊?
【 在 masharp (masharp) 的大作中提到: 】
: 我也在搞类似的事情,打算用轻量级模型 MobileNet这类试试 这类网络对CPU友好
--
FROM 208.82.100.*
我用的是pytorch
优化代码是pytorch平台开发人员的事情,我想优化都没法优化啊
从原理上也很容易理解,每个iteration需要所有线程的计算结果汇总同步,多核想快也快不起来啊
【 在 masharp (masharp) 的大作中提到: 】
: 如果8核比1核只快这么点,那你需要优化代码了。
--
FROM 208.82.100.*