水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
主题:Re: llama.cpp全面支持Apple Silicon
omelet
|
2023-06-05 09:42:38
|
跟N卡比起来如何?
m芯片上GPU规模还是小很多吧?
【 在 tgfbeta 的大作中提到: 】
:
https://github.com/ggerganov/llama.cpp/pull/1642
: M2 Max上7B模型达到40tok/s,完全使用GPU
: 13B 24tok/s
: ...................
--
FROM 114.249.194.*
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版