水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
主题:Re: llama.cpp全面支持Apple Silicon
syssky
|
2023-06-05 18:51:24
|
友提:已经有移动端运行的了,全平台覆盖
https://github.com/mlc-ai/mlc-llm
应用商店搜mlc chat直接下载安装运行。
我的iphone 14 pro max实测可以6 token每秒输出,还是可以的。
【 在 tgfbeta 的大作中提到: 】
: 按这个架势,过两年iPad上也许就能本地运行LLM了
--
修改:syssky FROM 106.121.166.*
FROM 106.121.166.*
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版