- 主题:超算能不能用来训练大模型?
不是有好几个超算中心么?不用n家卡脖子了
--
FROM 117.136.38.*
不能,因为所谓超算被n家的卡吊打
【 在 asm2004 的大作中提到: 】
: 不是有好几个超算中心么?不用n家卡脖子了
--
FROM 220.243.154.*
完全不是一个概念的方式。
真用超算去做,能做但是效率极低。
--
FROM 211.136.138.*
可以,但因为架构的原因,效率比较低
【 在 asm2004 的大作中提到: 】
: 不是有好几个超算中心么?不用n家卡脖子了
--
FROM 101.226.154.*
为什么效率极低?超算上面也有大量的GPU或者 TPU。
【 在 navyyang 的大作中提到: 】
: 完全不是一个概念的方式。
: 真用超算去做,能做但是效率极低。
--
FROM 124.126.138.*
国内真正针对现在的大模型设计的超算没见到几个,至少多数人了解的都不是针对大模型和人工智能来配置的。
这导致在相关算力上与大模型的需求是偏离的。
【 在 dormouseBHU 的大作中提到: 】
: 为什么效率极低?超算上面也有大量的GPU或者 TPU。
:
--
FROM 211.136.138.*
目前我国的超算基本没有配备nvidia的GPU和TPU
【 在 dormouseBHU 的大作中提到: 】
: 为什么效率极低?超算上面也有大量的GPU或者 TPU。
--
FROM 101.226.154.*
因为买不到?
【 在 johnbird 的大作中提到: 】
: 目前我国的超算基本没有配备nvidia的GPU和TPU
--
FROM 60.1.5.*
超酸现在也是用n卡滴
【 在 asm2004 的大作中提到: 】
: 不是有好几个超算中心么?不用n家卡脖子了
--
FROM 125.38.177.*
超算大部分是fp64的cpu高精运算
人工智能经常是fp16的gpu矩阵运算
【 在 asm2004 的大作中提到: 】
: 不是有好几个超算中心么?不用n家卡脖子了 ...
--
FROM 126.112.243.*