- 主题:准备七万经费,要为深度学习组装一台GPU工作站
什么网站
【 在 Auguster 的大作中提到: 】
: 把自己的\别人的模型放到上面的网站上
: 没必要自己花钱买卡,这上面的卡很全,低端的还有免费的。
: 这网站按卡的计算时间收费,成本很低的,估计用不了你经费的零头。
: ...................
--
FROM 222.76.205.*
从link中解密吧
单独再发一下base-six-four:
aHR0cHM6Ly9yZXBsaWNhdGUuY29tLw==
【 在 norlon 的大作中提到: 】
: 什么网站
:
--
修改:Auguster FROM 1.119.200.*
FROM 1.119.200.*
不是吧,我看12GB的显卡都能生成图片了,你告诉我只能生成文字的GPT要用更多资源?
【 在 yytree 的大作中提到: 】
: 好像GPT做一次训练要4000万美元
: 最少了
:
--
FROM 117.136.31.*
你说的是推理 他说的是整个训练 训练又分重头训练和微调 不同场景费用差了老鼻子去了
【 在 acseed 的大作中提到: 】
: 不是吧,我看12GB的显卡都能生成图片了,你告诉我只能生成文字的GPT要用更多资源?
: :
发自「快看水母 于 PFEM10」
--
FROM 183.192.12.*
是的,SD这种模型本来就比常见的LLM模型小
【 在 acseed 的大作中提到: 】
: 不是吧,我看12GB的显卡都能生成图片了,你告诉我只能生成文字的GPT要用更多资源?
: :
发自「快看水母 于 V2134A」
--
FROM 123.116.115.*
怎么解密?
【 在 Auguster 的大作中提到: 】
: 从link中解密吧
:
: 单独再发一下:
:
: aHR0cHM6Ly9yZXBsaWNhdGUuY29tLw==
: --
发自「今日水木 on iOS」
--
FROM 124.64.22.*
--
FROM 114.246.236.*
在用笔记本上可怜的笔记本2050搞,没舍得买个线程撕裂者+好显卡.
羡慕你如此有钱.
【 在 acseed 的大作中提到: 】
: 本人萌新,希望大佬们指点一下?
--
FROM 114.92.11.*
【 在 acseed 的大作中提到: 】
: 不是吧,我看12GB的显卡都能生成图片了,你告诉我只能生成文字的GPT要用更多资源?
: :
学习是学习, 微调是微调, 推理是推理。
从头学, 就是从一颗草履虫细胞进化出猪脑子来。
prompt学习, 就是训练猪按时吃饭,听懂敲猪石槽的声音。
迁移学习, 增量学习, 让小孩子上幼儿园。
生成图片其实是推理, 甚至都不是学习。
--
FROM 124.126.1.*