- 主题:多卡4090深度学习工作站配置(更新显卡)
挂一堆矿卡,看能不能赶上一块4090。
什么50hx,p104,p102之类。
【 在 youxia 的大作中提到: 】
: 4090没办法用二手的了
--
FROM 223.104.39.*
一片4090能买10片3080核心的90hx。
这卡是21年才出的,翻车概率没那么大。
电费折算进成本呗。
深度学习不知道对pcie带宽有没有要求,矿卡的pcie带宽缩水了。
【 在 youxia 的大作中提到: 】
: 矿卡容易翻车,而且电费也贵啊
--
FROM 120.245.26.*
之前的30hx和40hx是把带宽阉割成了pcie1.1x16(补电容),大概4GB/S。
90hx等其它型号我没查到。
【 在 lvsoft 的大作中提到: 】
: pcie带宽不是那么重要,但也不能太低。pcie3.0 x8是下限,不能再低了。
:
--
FROM 120.245.26.*
要看具体跑什么样的应用。
像跟挖矿类似的应用,就基本不吃接口带宽。
不然矿卡就不会砍成PCIE1.1x4了,带宽才1GB。
【 在 evilll 的大作中提到: 】
: nv-link比pci-E快两个数量级
: 双3090 走nv-link能做到100G以上的带宽。
: 走pci-e只有5G左右。
: ...................
--
FROM 120.245.26.*
就没有个技术,能把主机内存也加进来一块用么?
【 在 lvsoft 的大作中提到: 】
: 其实说穿了,nvlink的主要价值是可以让两卡合体起到一个显存翻倍的作用。
: 如果用不到自然也就无所谓了。
: 基本上也就3090有价值。4090没这个选项,更老的卡显存翻倍了也就等于一张3090。
: ...................
--
FROM 120.245.26.*
照啊。
内存到gpu,好歹也有30GB/S的带宽。
哪怕把内存扔给gpu当硬盘使也行…
【 在 youxia 的大作中提到: 】
: 可以啊。
: 参考 Huggingface Transformer 库的教程,教你如何用内存甚至磁盘来加载。
: 另外 Zero 算法就是干这个事情的。hugging face 底层调用的是这个。
--
FROM 120.245.26.*