大哥可以去看看gpu服务器的配置,肯定都带ssd。
ssd是外存,解决的是数据加载效率,显存是解决计算时的数据交换效率
【 在 Xjt 的大作中提到: 】
: 一直不太理解,为什么训练大模型不能利用SSD
:
: 现在制约大模型训练和推理的,根本不是芯片速度,而是内存。想要全量微调一个6B的大模型,就得有320G显存,就得4块A100。
:
: 如果只有一块A100,利用80G显存+240G SSD,理论上完全应该可以做到能全量微调一个6B的大模型。为什么没任何算法或者框架向着这个方向开发呢?
:
: 别告诉我会慢啊,我知道会慢,但原来4块A100运行几个小时,现在1块A100运行一周。也不是不能等啊。何况只要算法做得好,未必会慢超过10倍。
发自「快看水母 于 EVR-AL00」
--
FROM 223.104.38.*