- 主题:epyc做深度学习居然也行
直接两颗64核的epyc,加上超过1tb的内存,深度学习训练速度居然还可以,不比同价位的nvidia显卡慢
--
FROM 125.118.60.*
没用cuda吧
【 在 wwpty 的大作中提到: 】
: 直接两颗64核的epyc,加上超过1tb的内存,深度学习训练速度居然还可以,不比同价位的nvidia显卡慢
--
FROM 202.38.230.*
我看知乎有人说的,认真搞科研的账号,epyc 128核比v100快20%
【 在 forthehorde 的大作中提到: 】
: 没用cuda吧
--
FROM 60.177.68.*
这个完全取决于算法和优化程度
GPU做高性能运算不是昨天的事情
【 在 wwpty 的大作中提到: 】
: 我看知乎有人说的,认真搞科研的账号,epyc 128核比v100快20%
--
FROM 73.63.245.*
牛,我的硬盘都没那么大。
【 在 wwpty 的大作中提到: 】
: 直接两颗64核的epyc,加上超过1tb的内存,深度学习训练速度居然还可以,不比同价位的nvidia显卡慢
--
FROM 223.102.42.*
相当于校长同款cpu、校长一半内存,大概20w。
20w能买什么样的GPU?
【 在 wwpty 的大作中提到: 】
: 直接两颗64核的epyc,加上超过1tb的内存,深度学习训练速度居然还可以,不比同价位的nvidia显卡慢
--
FROM 117.128.4.*
是有一些论文研究CPU跑训练超过gpu的事情。
这个是有可能的并且也有好处,最大的价值是cpu可以随便怼出海量内存出来。
但这个场景epyc 128核心和一张v100的价格比比就不划算了。
何况v100可以插8张,epyc 128核x8那就需要8台,
更何况v100后面有a100,a100后面还有个h100...
【 在 wwpty 的大作中提到: 】
: 我看知乎有人说的,认真搞科研的账号,epyc 128核比v100快20%
--
FROM 180.111.27.*
我早就说了,他们都不回复我,而且CPU这种是通用计算啥都行,显卡有些东西算不了
【 在 wwpty 的大作中提到: 】
: 直接两颗64核的epyc,加上超过1tb的内存,深度学习训练速度居然还可以,不比同价位的nvidia显卡慢
--
FROM 111.192.176.*
现在就实现 1t 内存了
比我预期的早的多呀
不知道我这一生还能看到 1EB 的内存不?
【 在 wwpty 的大作中提到: 】
: 直接两颗64核的epyc,加上超过1tb的内存,深度学习训练速度居然还可以,不比同价位的nvidia显卡慢
--
修改:pixYY FROM 111.36.207.*
FROM 111.36.207.*
tesla a100 80g这个型号,淘宝卖6万块钱
【 在 Akyrum 的大作中提到: 】
: 相当于校长同款cpu、校长一半内存,大概20w。
: 20w能买什么样的GPU?
--
FROM 125.118.60.*