- 主题:有人用mac mini m4丐版跑deepseek-r1吗?
小范围的喂料做成知识库,70b还是可以胜任的
【 在 prettyPIG 的大作中提到: 】
: 主要是用来做定制版吧,企事业内部做成知识库我感觉应该挺不错的,不知道有没有这
: 么开始玩了的
:
: ...................
--
FROM 61.49.194.*
个人知识库解析文件快吗?
【 在 SuLiang 的大作中提到: 】
: 我装了个14b的,速度还挺快
: 不知道丐版是否可以跑大一点的,比如70b的,也才40G
: 不知道能不能跑
: --
: 唉,积分不够特快发帖的。。。 来NovelUnion小说联盟版模板发文赚积分啊!: 啥?还有这好事儿! ctrl+k驻版还能定期分享版面积分哦!: 还可以这样?
: ..................
发自「今日水木 on iPhone 15 Pro Max」
--
FROM 114.254.3.*
我没试过大文件,10来m的txt挺快
不过丐版也就能跑个ollama开14b
之前装dockeryubxi
装docker运行dify
跑deepseek问问题有时候会卡死
【 在 onwatch 的大作中提到: 】
: 个人知识库解析文件快吗?
: 发自「今日水木 on iPhone 15 Pro Max」
--
FROM 115.171.233.*
我在win本上装docker然后ragflow 解析是卡死
【 在 SuLiang 的大作中提到: 】
:
: 我没试过大文件,10来m的txt挺快
: 不过丐版也就能跑个ollama开14b
: 之前装dockeryubxi
: 装docker运行dify
: 跑deepseek问问题有时候会卡死
:
发自「今日水木 on iPhone 15 Pro Max」
--
FROM 125.33.201.*
虽然我没用ragflow
但是我觉得丐版应该是没问题的
不至于解析卡死
【 在 onwatch 的大作中提到: 】
: 我在win本上装docker然后ragflow 解析是卡死
: 发自「今日水木 on iPhone 15 Pro Max」
--
FROM 222.131.24.*
感觉ragflow比anythingllm要的硬件高多了。同样一台电脑,anythingllm 解析很快,ragflow都把docker憋死了。
【 在 SuLiang 的大作中提到: 】
:
: 虽然我没用ragflow
: 但是我觉得丐版应该是没问题的
: 不至于解析卡死
:
发自「今日水木 on iPhone 15 Pro Max」
--
FROM 125.33.207.*
意义不大,14b 已经是极限了,不具备实用价值
【 在 SuLiang 的大作中提到: 】
: 我装了个14b的,速度还挺快
: 不知道丐版是否可以跑大一点的,比如70b的,也才40G
: 不知道能不能跑
--
FROM 114.245.102.*
我也改成anythingLLM了
感觉丐版跑docker+DS不稳定
改成anythingLLM基本上不会遇到卡死的问题了
【 在 onwatch 的大作中提到: 】
: 感觉ragflow比anythingllm要的硬件高多了。同样一台电脑,anythingllm 解析很快,ragflow都把docker憋死了。
: 发自「今日水木 on iPhone 15 Pro Max」
--
FROM 222.131.24.*
anythingllm是不是效果不太好
【 在 SuLiang 的大作中提到: 】
:
: 我也改成anythingLLM了
: 感觉丐版跑docker+DS不稳定
: 改成anythingLLM基本上不会遇到卡死的问题了
:
发自「今日水木 on iPhone 15 Pro Max」
--
FROM 114.254.1.*
我感觉主要是14b比较差。。。
【 在 onwatch 的大作中提到: 】
: anythingllm是不是效果不太好
: 发自「今日水木 on iPhone 15 Pro Max」
--
FROM 222.131.24.*