- 主题:deepseek 671b r1一出,洋垃圾又要暴涨了
显存跑起来才够速度。。。。这显存太难了。
--
FROM 223.72.70.*
用mac mini pro那个128gb有戏么?
【 在 navyyang 的大作中提到: 】
: 显存跑起来才够速度。。。。这显存太难了。
--
FROM 183.227.158.*
好像可以跑70b
很慢
【 在 cquptSz 的大作中提到: 】
: 用mac mini pro那个128gb有戏么?
:
--
FROM 140.240.50.*
原版DeepSeek R1 671B 全量模型的文件达720GB
所以。。。没戏
【 在 cquptSz 的大作中提到: 】
: 用mac mini pro那个128gb有戏么?
:
--
FROM 223.72.70.*
没错。两者配合着用
【 在 heideggerr 的大作中提到: 】
: 最好还是基础大模型 + 个性化模型,前者是厂商训练的,后者是用户在自己家里训练的。
:
--
FROM 222.160.178.*
没问几次就服务器繁忙
【 在 niumiu 的大作中提到: 】
: 多问几次
: 【 在 smthhz 的大作中提到: 】
: : 随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
: ...................
--来自微微水木3.5.17
--
FROM 111.194.209.*
【 在 poggy 的大作中提到: 】
:
: 7b/8b 这种玩具级别的模型, 手机都能跑。
: 16b上下的模型, 有块十几个G的独立显卡的普通电脑也能跑。
: ...................
国产显卡厂家来活路了,128g显存ds配套用卡在,相关驱动完善即可,不必考虑游戏匹配了。
--
FROM 171.105.113.*
拼多多现在确实比淘宝和京东都好用了,如果走的这个路径,胜利在望。
【 在 xeagle 的大作中提到: 】
有可能真的是拼多多版AI, 只是性价比高
【 在 smthhz 的大作中提到: 】
: 随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
: --
: 发自xsmth (iOS版)
: --
发自「今日水木 on iOS」
--
FROM 124.65.127.*
请问您们都在哪儿买洋垃圾
【 在 coollpe (coollpe) 的大作中提到: 】
: 作为最强大的模型,它本地运行只需要768G内存,势必大幅增加洋垃圾服务器需求
:
: --
:
--
FROM 221.222.21.*
不是404G吗?
【 在 navyyang 的大作中提到: 】
: 原版DeepSeek R1 671B 全量模型的文件达720GB
: 所以。。。没戏
:
: ...................
--
FROM 1.119.200.*