不可能。深度学习撑不起这么大的市场。
高端应用不可能用游戏卡。
更何况a100 cuda数量本来就只有3090的一半上下,它nb的地方是显存带宽。
更别提a100 80gb的显存,你一张40卡怎么可能顶的过8张a100总共640GB显存?
哦,你说虚拟显存啊...那回到前面的问题...a100为啥能用3090一半的cuda核,发挥出2倍的性能?两者都是同代产品哦。GDDR6X的带宽都严重制约了性能,还虚拟显存......
【 在 acseed 的大作中提到: 】
: 游戏的问题,虚幻5引擎已经解决了,随着明年相关游戏推出,大家会发现20系,30系中低端显卡也能跑得转
: 反而不用虚幻5引擎的游戏,就是上40系显卡,画质也不会有多大改善。
: 40系最大的卖点可能将是:将目前深度学习训练与推理大语言模型(LLM)的硬件需求,从八张甚至更多A100转换为单张或双卡40系,且支持虚拟显存的方式对模型进行训练(目前有些模型需要300GB以上的显存来训练,无奈只能分布式)
: ...................
--
修改:lvsoft FROM 180.111.48.*
FROM 180.111.48.*