- 主题:tesla p40 24g计算卡值得买吗?
多加点钱,搞个p100,双精度算力很高
【 在 wwpty 的大作中提到: 】
: 淘宝搜了一下,只要1050块钱。专业的计算卡,被动散热,适合服务器用。3840个cuda核,24g gddr5显存。拿来搞ai练手,值得买吗?现在的3090和4090太贵了
--
FROM 223.72.41.*
搞ai好像只要单精度fp32和半精度fp16吧,pascal系列没有半精度功能,我还是用rtx a4000算了,单插槽,自带风扇
【 在 firstflood 的大作中提到: 】
: 多加点钱,搞个p100,双精度算力很高
--
FROM 60.177.68.*
用rtx a4000还不如用Titan V,现在淘宝4千多元和a4000相当,单精度fp32和半精度fp16二者差不多,但双精度Titan V是7.5T,甚至远超4090,用途更广。
【 在 wwpty 的大作中提到: 】
: 搞ai好像只要单精度fp32和半精度fp16吧,pascal系列没有半精度功能,我还是用rtx a4000算了,单插槽,自带风扇
--
FROM 223.244.101.*
双精度性能到底有什么用?3090才500gflops
【 在 azuresea 的大作中提到: 】
: 用rtx a4000还不如用Titan V,现在淘宝4千多元和a4000相当,单精度fp32和半精度fp16二者差不多,但双精度Titan V是7.5T,甚至远超4090,用途更广。
:
--
FROM 220.191.120.*
p40显存大,更便宜,供货也多,成色新,无尘机房干净
【 在 firstflood 的大作中提到: 】
: 多加点钱,搞个p100,双精度算力很高
--
FROM 220.191.120.*
很多科学计算仍然需要双精度,结果可信度更高。这个网站有个人测了重度依赖双精度的软件LAMMPS:
http://bbs.keinsci.com/thread-33296-1-1.html
一些测试结果如下:
Entropy.S.I LAMMPS test (ATOM-Time MSteps/s):
A7950X+3090(OC) A7950X+4090 I13900K+3090(OC) I13900K+4090
LJ 2.5: 134.832 264.987 135.143 267.330
EAM: 28.721 58.442 28.680 58.728
ReaxFF/C: 0.499 N/A 0.506 N/A
Tersoff: 36.652 61.435 37.158 62.647
作为对比,我办公室的GV100和家里的Titan V(二者核心相同,频率和内存稍有差别)同样测试的结果如下:
Entropy.S.I test (ATOM-Time MSteps/s):
W-2155+GV100 E5-2696V3+Titan_V
LJ 2.5: 329.539 294.169
EAM: 69.278 66.834
ReaxFF/C: 1.564 1.504
Tersoff: 101.951 98.917
【 在 wwpty 的大作中提到: 】
: 双精度性能到底有什么用?3090才500gflops
--
FROM 60.168.40.*
P100没有Tensor Cores,这个也有很大作用,用上之后还可以进一步大幅度加速。
【 在 wwpty 的大作中提到: 】
: 上面回帖有人提到tesla p100,这个双精度性能也很强,淘宝才1600块钱
--
FROM 60.168.40.*
深度学习用不到双精度吧,tensor核倒是很有用,最合理的选择还是rtx a4000,单插槽太香了,绝无仅有的设计
【 在 azuresea 的大作中提到: 】
: P100没有Tensor Cores,这个也有很大作用,用上之后还可以进一步大幅度加速。
:
--
修改:wwpty FROM 220.191.120.*
FROM 220.191.120.*
嗯深度学习还用不到双精度,不过你买几个a4000这钱效比怕是还比不上直接买4090吧。
【 在 wwpty 的大作中提到: 】
: 深度学习用不到双精度吧,tensor核倒是很有用,最合理的选择还是rtx a4000,单插槽太香了,绝无仅有的设计
--
FROM 60.168.40.*