- 主题:请教30~40万配置
目前想配个服务器,用来跑大模型
预算30~40万,请教配置
万分感谢
--
FROM 222.129.3.*
现在nvidia还能买到吗..
【 在 omelet 的大作中提到: 】
: 目前想配个服务器,用来跑大模型
: 预算30~40万,请教配置
: 万分感谢
: ...................
--
FROM 1.202.11.*
有渠道可以买到4090和A100
我看了下,好像4090不能多卡做阵列?
【 在 cppbuilder 的大作中提到: 】
: 现在nvidia还能买到吗..
:
--
FROM 222.129.3.*
能买到a100不错。
多卡看怎么用吧,我们学生有时候单个卡跑的,起几个进程不就用上了
【 在 omelet (老郭) 的大作中提到: 】
: 有渠道可以买到4090和A100
: 我看了下,好像4090不能多卡做阵列?
:
: 【 在 cppbuilder 的大作中提到: 】
--
FROM 1.202.11.*
电费也很贵啊
【 在 omelet 的大作中提到: 】
:目前想配个服务器,用来跑大模型:预算30~40万,请教配置:万分感谢
- 来自 水木社区APP v3.5.6
--
FROM 111.201.170.*
有预算买这个服务器,肯定是考虑了电费了
【 在 bieshuo 的大作中提到: 】
: 电费也很贵啊
: :目前想配个服务器,用来跑大模型:预算30~40万,请教配置:万分感谢
: - 来自 水木社区APP v3.5.6
--
FROM 117.129.21.*