- 主题:神经网络加速器到底有什么优势?
我个人理解,向量处理器就特别适合做机器学习。可以加几个特殊计算单元。
Goole TPU还搞个复杂指令集,高了一堆专用PE,做成加速器,反而灵活性上比向量处理器差太远了!
估计寒武纪之流也类似。
富士通那个最新ARM64指令集的处理器,也带有512向量处理单元。
大家怎么评价各类神经网络加速器?
--
FROM 36.98.174.*
感觉也就是对一些特定的场合能尤为起到加速效果吧
--
FROM 221.218.132.*
~~~上次未发表的内容~~~
专门加速一些神经网络蒜子,降低功耗,还是很有意义的
【 在 chairmao (此头须向国门玄) 的大作中提到: 】
:
: 我个人理解,向量处理器就特别适合做机器学习。可以加几个特殊计算单元。
:
: Goole TPU还搞个复杂指令集,高了一堆专用PE,做成加速器,反而灵活性上比向量处理器差太远了!
--
FROM 183.40.233.*
我是说,为什么不是处理器的data path做几个特殊单元,
而要搞TPU这样子的专用加速器,极大地限制灵活性?
手机上或许可以做一个小专用加速器,
那也不过是做矩阵乘法和卷积,
很简单的一个。
有什么值得研究的?
【 在 qwepoi 的大作中提到: 】
: ~~~上次未发表的内容~~~
: 专门加速一些神经网络蒜子,降低功耗,还是很有意义的
--
FROM 112.224.132.*
加速器不单单是矩阵乘法,要支持各种算子还是很需要灵活性的,如果普通处理器加个特殊单元当然也可以做,但是能耗比不合算,加速器可以做到算力功耗比最佳
【 在 chairmao (此头须向国门玄) 的大作中提到: 】
:
: 我是说,为什么不是处理器的data path做几个特殊单元,
:
: 而要搞TPU这样子的专用加速器,极大地限制灵活性?
--
FROM 183.40.233.*
bingo,只有用在特定场合才有钱赚,不管是狗家,还是fb的datacenter,NNP加速都是很限定的asic,根本没啥灵活性,都是处理海量数据,规格化了,狗家年初发布最新的tpu,根本不跟你谈构架功能,主要就是在算效能长进多少,
也只有国内这波startup今天吹个新功能,明天吹个新结构,离AI/ML真正能挣钱的市场差了十万八千里呢,所以说都得死一点不奇怪
【 在 JavaGuyHan 的大作中提到: 】
: 感觉也就是对一些特定的场合能尤为起到加速效果吧
--
FROM 192.55.55.*
可是,
谁会在乎你那么一点点功耗呢?
【 在 qwepoi 的大作中提到: 】
: 加速器不单单是矩阵乘法,要支持各种算子还是很需要灵活性的,如果普通处理器加个特殊单元当然也可以做,但是能耗比不合算,加速器可以做到算力功耗比最佳
--
FROM 112.224.132.*
~~~上次未发表的内容~~~
你觉得神经网络都是在机房里运行的吗?想想手机,无人机,电池供电的嵌入式设备
【 在 chairmao (此头须向国门玄) 的大作中提到: 】
:
:
: 可是,
:
--
FROM 183.40.233.*
那些都不做training,计算量很小。
做1个或几个(SIMD方式)矩阵乘法、矩阵卷积的加速器,足够了。
【 在 qwepoi 的大作中提到: 】
: ~~~上次未发表的内容~~~
: 你觉得神经网络都是在机房里运行的吗?想想手机,无人机,电池供电的嵌入式设备
--
FROM 141.76.127.*
你还是学生吧,你需要点真正工业界的经验。
现在所有厂家追求的最重要指标,没有之一就是ppa,你说谁在乎那么点功耗?
【 在 chairmao 的大作中提到: 】
: 可是,
: 谁会在乎你那么一点点功耗呢?
:
: ...................
--
FROM 101.88.158.*