- 主题:现在是不是没人自己搭建本地模型了
本地的硬件一般不行,导致能力太差了。普通人也没那么多本地材料要导入。
除了TranslateGemma这种纯翻译用的。
--
FROM 61.51.229.*
各种模型演进变化这么快
个人硬件,精力跟不上
--
FROM 183.241.186.*
还有个问题是有些模型不开源了,像Kimi 2.5,只提供API接口
【 在 hothail 的大作中提到: 】
: 各种模型演进变化这么快
: 个人硬件,精力跟不上
--
FROM 61.51.229.*
Kimi K2.5 是开放权重的,只不过一般人没这么多硬件资源跑这个。
【 在 z16166 的大作中提到: 】
: 还有个问题是有些模型不开源了,像Kimi 2.5,只提供API接口
--
FROM 218.108.210.*
我们公司这种只能内网开发的还是要在内网里面部署,不过现在内网用LLM的人还不多,暂时看不出资源不够。
【 在 z16166 的大作中提到: 】
: 本地的硬件一般不行,导致能力太差了。普通人也没那么多本地材料要导入。
: 除了TranslateGemma这种纯翻译用的。
--
FROM 218.108.210.*
热的很 取暖器了。 笔记本可真舍不得
【 在 z16166 的大作中提到: 】
: 本地的硬件一般不行,导致能力太差了。普通人也没那么多本地材料要导入。
:
: 除了TranslateGemma这种纯翻译用的。
: --
:
: FROM 61.51.229.* [北京 联通]
--发自 ismth(丝滑版)
--
FROM 182.204.168.*