- 主题:准备七万经费,要为深度学习组装一台GPU工作站
本人萌新,希望大佬们指点一下?
--
FROM 112.94.2.*
做什么规模的深度学习?
【 在 acseed 的大作中提到: 】
: 本人萌新,希望大佬们指点一下?
--
FROM 114.253.245.*
大规模的,想做基于RL和世界模型的VLM
【 在 preposition 的大作中提到: 】
: 做什么规模的深度学习?
:
--
FROM 117.136.31.*
想用专业卡还是rtx4090?
--
FROM 124.64.23.*
听起来少俩零的节奏
【 在 acseed 的大作中提到: 】
: 大规模的,想做基于RL和世界模型的VLM
: :
--
FROM 222.129.1.*
租个云服务器跑几个月练练手先,说不定发现设想没法收敛,或者刚好新显卡出来了更强大了
【 在 acseed 的大作中提到: 】
: 本人萌新,希望大佬们指点一下?
--
FROM 111.197.232.*
好像GPT做一次训练要4000万美元
最少了
【 在 acseed 的大作中提到: 】
: 本人萌新,希望大佬们指点一下?
--
FROM 123.119.201.*
你这是准备学习,有这个宏伟的目标呢,还是手头已经有了这模型和数据,就等着有工作站提供给你算力支持?
一般有一个概念,主流的cpu做算法,比如14600k,并行的算法中,大概是gtx4080s同类运算的1/5-1/10左右。
【 在 acseed 的大作中提到: 】
: 大规模的,想做基于RL和世界模型的VLM
: :
--
FROM 114.253.245.*
把自己的\别人的模型放到上面的网站上
没必要自己花钱买卡,这上面的卡很全,低端的还有免费的。
这网站按卡的计算时间收费,成本很低的,估计用不了你经费的零头。
【 在 acseed 的大作中提到: 】
: 本人萌新,希望大佬们指点一下?
--
FROM 1.119.200.*
4块4090?
【 在 acseed 的大作中提到: 】
: 本人萌新,希望大佬们指点一下?
--
FROM 112.47.225.*