- 主题:tesla p40 24g计算卡值得买吗?
- 多加点钱,搞个p100,双精度算力很高
 
 【 在 wwpty 的大作中提到: 】
 : 淘宝搜了一下,只要1050块钱。专业的计算卡,被动散热,适合服务器用。3840个cuda核,24g gddr5显存。拿来搞ai练手,值得买吗?现在的3090和4090太贵了
 --
 FROM 223.72.41.*
 
- 搞ai好像只要单精度fp32和半精度fp16吧,pascal系列没有半精度功能,我还是用rtx a4000算了,单插槽,自带风扇
 【 在 firstflood 的大作中提到: 】
 : 多加点钱,搞个p100,双精度算力很高
 --
 FROM 60.177.68.*
 
- 用rtx a4000还不如用Titan V,现在淘宝4千多元和a4000相当,单精度fp32和半精度fp16二者差不多,但双精度Titan V是7.5T,甚至远超4090,用途更广。
 
 【 在 wwpty 的大作中提到: 】
 : 搞ai好像只要单精度fp32和半精度fp16吧,pascal系列没有半精度功能,我还是用rtx a4000算了,单插槽,自带风扇
 --
 FROM 223.244.101.*
 
- 双精度性能到底有什么用?3090才500gflops
 【 在 azuresea 的大作中提到: 】
 : 用rtx a4000还不如用Titan V,现在淘宝4千多元和a4000相当,单精度fp32和半精度fp16二者差不多,但双精度Titan V是7.5T,甚至远超4090,用途更广。
 :
 --
 FROM 220.191.120.*
 
- p40显存大,更便宜,供货也多,成色新,无尘机房干净
 【 在 firstflood 的大作中提到: 】
 : 多加点钱,搞个p100,双精度算力很高
 --
 FROM 220.191.120.*
 
- 很多科学计算仍然需要双精度,结果可信度更高。这个网站有个人测了重度依赖双精度的软件LAMMPS:
 
 http://bbs.keinsci.com/thread-33296-1-1.html
 
 一些测试结果如下:
 
 Entropy.S.I LAMMPS test (ATOM-Time MSteps/s):
 A7950X+3090(OC) A7950X+4090     I13900K+3090(OC)        I13900K+4090
 LJ 2.5:         134.832         264.987         135.143                 267.330
 EAM:            28.721          58.442          28.680                  58.728
 ReaxFF/C:       0.499           N/A             0.506                   N/A
 Tersoff:        36.652          61.435          37.158                  62.647
 
 
 作为对比,我办公室的GV100和家里的Titan V(二者核心相同,频率和内存稍有差别)同样测试的结果如下:
 
 Entropy.S.I test (ATOM-Time MSteps/s):
 W-2155+GV100    E5-2696V3+Titan_V
 LJ 2.5:         329.539         294.169
 EAM:            69.278          66.834
 ReaxFF/C:       1.564           1.504
 Tersoff:        101.951         98.917
 
 【 在 wwpty 的大作中提到: 】
 : 双精度性能到底有什么用?3090才500gflops
 --
 FROM 60.168.40.*
 
- P100没有Tensor Cores,这个也有很大作用,用上之后还可以进一步大幅度加速。
 
 【 在 wwpty 的大作中提到: 】
 : 上面回帖有人提到tesla p100,这个双精度性能也很强,淘宝才1600块钱
 --
 FROM 60.168.40.*
 
- 深度学习用不到双精度吧,tensor核倒是很有用,最合理的选择还是rtx a4000,单插槽太香了,绝无仅有的设计
 【 在 azuresea 的大作中提到: 】
 : P100没有Tensor Cores,这个也有很大作用,用上之后还可以进一步大幅度加速。
 :
 --
 修改:wwpty FROM 220.191.120.*
 FROM 220.191.120.*
 
- 嗯深度学习还用不到双精度,不过你买几个a4000这钱效比怕是还比不上直接买4090吧。
 
 【 在 wwpty 的大作中提到: 】
 : 深度学习用不到双精度吧,tensor核倒是很有用,最合理的选择还是rtx a4000,单插槽太香了,绝无仅有的设计
 --
 FROM 60.168.40.*