- 主题:请教存算一体方向
HBM显然不是存算一体
存算一体要把ram分配到每个“CUDA”,甚至每个PE里面去
通用AI别想
在一些专用的模型里有可能
现阶段是发论文容易,骗钱都不容易了
【 在 beautytree 的大作中提到: 】
: 如果把HBM叫做存算一体,那是靠谱的
: 其它国内搞的模拟存算,数字存算我觉得就是个坑
--
修改:salsalover FROM 221.218.140.*
FROM 221.218.140.*
这种类型的公司是不是适合去港股
【 在 salsalover 的大作中提到: 】
: HBM显然不是存算一体
: 存算一体要把ram分配到每个“CUDA”,甚至每个PE里面去
: 通用AI别想
: ...................
--
FROM 114.84.18.*
为啥非得上市呢
都不想卖产品赚钱?
【 在 db16122 的大作中提到: 】
: 这种类型的公司是不是适合去港股
--
FROM 221.218.140.*
某存是投资人都撤光了的那家flash模拟存算吧,这都能忽悠到某节?
【 在 shuangyue 的大作中提到: 】
: 是某存+某原
--
FROM 36.19.171.*
成本控制比较难吧,量少价高
- 来自 水木社区APP v3.5.7
【 在 salsalover 的大作中提到: 】
: 为啥非得上市呢
:
: 都不想卖产品赚钱?
--
FROM 39.144.45.*
上市就容易控制成本量多价廉了?
【 在 db16122 的大作中提到: 】
: 成本控制比较难吧,量少价高
: - 来自 水木社区APP v3.5.7
--
FROM 36.19.171.*
上市高管比较容易跑路
【 在 haidaqiong 的大作中提到: 】
: 上市就容易控制成本量多价廉了?
--
FROM 218.242.218.*
在边缘端做点低功耗的小应用还有可能产业化,云端训练不可能
--
FROM 222.128.26.*
为啥云端训练不可能?
【 在 cloud830610 的大作中提到: 】
: 在边缘端做点低功耗的小应用还有可能产业化,云端训练不可能
--
FROM 101.36.66.*
数字存算为了省带宽和功耗要把sram或其它存储放到pe一起,那就要把pe切到比较小的颗粒度上,并编排mux让数据在pe间流水起来,这其实是信号处理单元的典型架构,类似fpga做得比较多。训练过程的计算粒度大,很难切碎在这种流水上实现,以及还有迭代次数不定等问题。不光训练,大模型推理的transformer里也有不少全局性处理,所以其实数字存算实用问题也很大。
【 在 shuangyue 的大作中提到: 】
: 为啥云端训练不可能?
--
FROM 112.10.244.*