- 主题:本地部署Deepseek,买什么配置电脑?
rt
--
FROM 210.77.28.*
主要吃显存,越大越好
【 在 icome 的大作中提到: 】
: 标 题: 本地部署Deepseek,买什么配置电脑?
: 发信站: 水木社区 (Thu Feb 6 09:05:33 2025), 站内
:
: rt
: --
:
: ※ 来源:·水木社区
http://www.mysmth.net·[FROM: 210.77.28.*]
--
FROM 117.129.57.*
目前貌似苹果的 studio效率最高,顶配能勉强70B
--
修改:wangstone FROM 58.246.240.*
FROM 58.246.240.*
跟内存大小没关系么?
【 在 Acui 的大作中提到: 】
: 主要吃显存,越大越好
:
--
FROM 14.127.27.*
大内存很容易实现,可忽略不表
【 在 djkstra 的大作中提到: 】
: 跟内存大小没关系么?
--
FROM 117.129.57.*
显存越大越好,内存越大越好
个人感觉本地部署目前很难平衡性能和价格,部署大点的模型需要加显存内存,但与此同时云服务的api价格又在不断下降,买显卡的钱比用api贵多了...
我目前的计划是先用api和云服务,观望一下,等时机成熟再搞端侧
Ai这波可能会对云计算产业影响更大,云计算的商业模型立起来了。
【 在 icome 的大作中提到: 】
: rt
--
FROM 111.55.145.*
本地部署的最大优势是,可以利用本地数据对通用模型进行微调训练,得到适合自己需要的本地大模型,云服务是不可能提供这些信息的,未来大模型的发展方向 将会从通用大模型转向 面向企业、甚至是个人用户的私有模型。
【 在 Engelberger 的大作中提到: 】
: 显存越大越好,内存越大越好
: 个人感觉本地部署目前很难平衡性能和价格,部署大点的模型需要加显存内存,但与此同时云服务的api价格又在不断下降,买显卡的钱比用api贵多了...
: 我目前的计划是先用api和云服务,观望一下,等时机成熟再搞端侧
: ...................
--
修改:heideggerr FROM 113.232.155.*
FROM 113.232.155.*
可以租赁私有云。
以后有些本地化的场景:1.某些机器不能联网;2.个人想训练不受约束的模型(云服务商可能会ban掉);3.更长远的,手机上的端侧模型保护隐私;4.企业想要保护自己的商业秘密。
目前就我个人的需要而言,本地化的机器成本偏高,性能不足(尤其是联网搜索整合不好)
【 在 heideggerr 的大作中提到: 】
: 本地部署的最大优势是,可以利用本地数据对通用模型进行微调训练,得到适合自己需要的本地大模型,云服务是不可能提供这些信息的,未来大模型的发展方向 将会从通用大模型转向 面向企业、甚至是个人用户的私有大模型。
:
:
--
FROM 111.55.145.*
总之,这是一次模式革新,从少数几个大厂垄断模型的训练,转变到众多企业用户可以参与的领域模型的训练。虽然,现在本地模型训练的成本还是有点高,但是毕竟已经降到一个够得着的水平了,我相信会有大量的行业软件开发者已经蠢蠢欲动了!甚至,搞得我这样的个人用户都开始蠢蠢欲动了。
【 在 Engelberger 的大作中提到: 】
: 可以租赁私有云。
: 以后有些本地化的场景:1.某些机器不能联网;2.个人想训练不受约束的模型(云服务商可能会ban掉);3.更长远的,手机上的端侧模型保护隐私;4.企业想要保护自己的商业秘密。
: 目前就我个人的需要而言,本地化的机器成本偏高,性能不足(尤其是联网搜索整合不好)
: ...................
--
FROM 113.232.155.*
开源加速了模型和服务的拆分,云计算降低了购置硬件的成本,门槛大幅降低了
几百块就能蒸馏出一流的模型了,真是神奇
【 在 heideggerr 的大作中提到: 】
: 总之,这是一次模式革新,从少数几个大厂垄断模型的训练,转变到众多企业用户可以参与的领域模型的训练。虽然,现在本地模型训练的成本还是有点高,但是毕竟已经降到一个够得着的水平了,我相信会有大量的行业软件开发者已经蠢蠢欲动了!甚至,搞得我这样的个人用户都开始蠢蠢欲动了。
:
--
FROM 111.55.145.*