- 主题:有人做computation in memory吗
人工智能应用方面最有前途的芯片是GPU
其次是FPGA,这个取决于高层次建模语言能发展到啥程度,本青对这个不太乐观,应该还是hdl码农的天下
其次才是你说的各类AI加速芯片,这类芯片最大的问题就是远远跟不上算法迭代的速度,另外可编程性太差
除了memory这种有固定接口协议的芯片,不能让软件码农愉快编程的芯片都不会有前途
论文这东西看看就好,学术研究的范畴,跟产品两码事
【 在 kinkinkids 的大作中提到: 】
: 你看看清华的论文,
: 流片了,
: 而且做的人工智能应用效果也很好,
: ...................
--
FROM 124.89.86.*
所以才要发展针对新型器件映射的EDA工具
即把HDL高效的映射到硬件
【 在 eefaquir 的大作中提到: 】
: 人工智能应用方面最有前途的芯片是GPU
: 其次是FPGA,这个取决于高层次建模语言能发展到啥程度,本青对这个不太乐观,应该还是hdl码农的天下
: 其次才是你说的各类AI加速芯片,这类芯片最大的问题就是远远跟不上算法迭代的速度,另外可编程性太差
: ...................
--
FROM 101.86.215.*
这是理想情况,可惜CIM本省的架构特性决定了其根本做不了什么复杂的工作,最好用的地方就是大规模的并行乘加
靠数字电路memory cost根本扛不住,靠模拟电路精度问题也绕不过去
所以应用范围及其有限
还是那句话,学术研究是个还不错的坑,但是产品不报啥希望
这波AI浪潮,笑到最后挣大钱的芯片企业还是NVIDIA
可惜GPU这玩意技术门槛太高,很多人只能玩玩旁门左道
【 在 kinkinkids 的大作中提到: 】
: 所以才要发展针对新型器件映射的EDA工具
: 即把HDL高效的映射到硬件
--
修改:eefaquir FROM 124.89.86.*
FROM 124.89.86.*