- 主题:请教存算一体方向
利用3d封装实现的存算一体在高密度计算方面有前途,支持大模型问题不大;优化架构电路器件实现的数字存算一体在部分场景合适,大模型难搞好;基于模拟信号的存算一体主要是学术灌水,工业落地基本不可能。
【 在 TrueColors 的大作中提到: 】
: 请教一下各位,存算一体能取代GPU作为大模型计算的算力吗?有一家跟互联网头部深度合作的公司在做这个
--
FROM 112.10.244.*
某原布局似乎更偏制造,感觉和做柔性面板那家的风格比较像,弄不好结局也像。
【 在 MaiK 的大作中提到: 】
: 你说的是某节收购的那家吧?行业内非常质疑这家
:
--
FROM 36.19.171.*
某存是投资人都撤光了的那家flash模拟存算吧,这都能忽悠到某节?
【 在 shuangyue 的大作中提到: 】
: 是某存+某原
--
FROM 36.19.171.*
上市就容易控制成本量多价廉了?
【 在 db16122 的大作中提到: 】
: 成本控制比较难吧,量少价高
: - 来自 水木社区APP v3.5.7
--
FROM 36.19.171.*
数字存算为了省带宽和功耗要把sram或其它存储放到pe一起,那就要把pe切到比较小的颗粒度上,并编排mux让数据在pe间流水起来,这其实是信号处理单元的典型架构,类似fpga做得比较多。训练过程的计算粒度大,很难切碎在这种流水上实现,以及还有迭代次数不定等问题。不光训练,大模型推理的transformer里也有不少全局性处理,所以其实数字存算实用问题也很大。
【 在 shuangyue 的大作中提到: 】
: 为啥云端训练不可能?
--
FROM 112.10.244.*