没明白,凭啥14nm会便宜很多?
【 在 hgoldfish 的大作中提到: 】
:
: 如果需要证据证明不需要最先进工艺就能造出 Exascale 级超算,你只需要看看中国国家超级计算无锡中心的神威·“海洋之光”系统。阿里巴巴、清华大学、达摩院、浙江实验室和北京智源人工智能研究院发表的论文透露了关于“海洋之光”的架构细节,它们运行名为“八卦炉(BaGuaLu)”的预训练机器学习模型,有超过 3700 万个内核和 14.5 万亿个参数(大概为FP32 单精度),能扩展到 174 万亿个参数(接近“大脑规模”,即其参数数量接近人脑突触数量)。
:
: “八卦炉”训练模型测试的总计 105 个机柜的系统及其 107,250 个 SW26010-Pro 处理器的峰值理论性能为 1.51 exaflops。我们喜欢基数为 2 的数字,认为“海洋之光”系统可能会扩展到 160 个机柜,即 163,840 个节点,峰值 FP64 和 FP32 性能略低于 2.3 exaflops。如果它只有 120 个机柜,“海洋之光”的峰值将是 1.72 exaflops。如果 160 机柜规模是“海洋之光”的最大值,那么中国可以超越美国橡树岭国家实验室正在调优的“Frontier”超算(性能为 1.5 exaflops),并能超越将于今年晚些时候进入美国劳伦斯利弗莫尔国家实验室的“Aurora”超算(理论峰值性能 2 exaflops)——甚至可能超过将于 2023 年进入劳伦斯利弗莫尔国家实验室的“El Capitan”超算,传言“El Capitan”超级计算机的理论峰值性能预计将达到 2.2 exaflops 到 2.3 exaflops。
:
#发自zSMTH@Mi 10 Pro
--
FROM 111.193.226.*