- 主题:有人用mac mini m4丐版跑deepseek-r1吗?
我装了个14b的,速度还挺快
不知道丐版是否可以跑大一点的,比如70b的,也才40G
不知道能不能跑
--
FROM 222.131.24.*
试了,只能跑14b,32b就不行了
【 在 wjo 的大作中提到: 】
: 你试试呗!
--
FROM 222.131.24.*
就是Mac mini M4丐版啊
M4CUP+16G内存+256G空间
【 在 stanlyliusu 的大作中提到: 】
: 啥配置能说下吗
--
FROM 222.131.24.*
不知道
mac mini m4应该没有独立的显存,是共享内存
估计是内存受限
【 在 prettyPIG 的大作中提到: 】
: 啥是上限?显卡还是内存?
--
FROM 222.131.24.*
我没试过大文件,10来m的txt挺快
不过丐版也就能跑个ollama开14b
之前装dockeryubxi
装docker运行dify
跑deepseek问问题有时候会卡死
【 在 onwatch 的大作中提到: 】
: 个人知识库解析文件快吗?
: 发自「今日水木 on iPhone 15 Pro Max」
--
FROM 115.171.233.*
虽然我没用ragflow
但是我觉得丐版应该是没问题的
不至于解析卡死
【 在 onwatch 的大作中提到: 】
: 我在win本上装docker然后ragflow 解析是卡死
: 发自「今日水木 on iPhone 15 Pro Max」
--
FROM 222.131.24.*
我也改成anythingLLM了
感觉丐版跑docker+DS不稳定
改成anythingLLM基本上不会遇到卡死的问题了
【 在 onwatch 的大作中提到: 】
: 感觉ragflow比anythingllm要的硬件高多了。同样一台电脑,anythingllm 解析很快,ragflow都把docker憋死了。
: 发自「今日水木 on iPhone 15 Pro Max」
--
FROM 222.131.24.*
我感觉主要是14b比较差。。。
【 在 onwatch 的大作中提到: 】
: anythingllm是不是效果不太好
: 发自「今日水木 on iPhone 15 Pro Max」
--
FROM 222.131.24.*