- 主题:本地部署deepseek 直接重启了
求个喂pdf的教程
【 在 stanlyliusu 的大作中提到: 】
: 配置是M4 pro 残血版 48G内存 的14寸mbp
:
: 开始搞了个32b的毫无压力 尝试喂了个pdf 特别慢 风扇开始狂准
: ...................
--
FROM 123.148.194.*
Apple M1 Max 64G
部署了70b,没啥感觉。CPU、内存空闲还是很多。
--
FROM 222.131.50.*
把公司的手册都吃进去
以后直接在线技术支持了
【 在 newway007 的大作中提到: 】
: 本地部署的意义在哪里?
: 可以自己微调训练?
--
FROM 111.199.106.*
出回答快吗
【 在 lxfryn 的大作中提到: 】
: Apple M1 Max 64G
: 部署了70b,没啥感觉。CPU、内存空闲还是很多。
--
FROM 123.148.194.*
喂一次就行还是以后每次问都得先喂一遍
【 在 VIV 的大作中提到: 】
: 把公司的手册都吃进去
: 以后直接在线技术支持了
--
FROM 223.104.40.*
有更新就喂啊,也不难
我也是瞎猜的,感觉这是个方向
以后靠技术吃饭的有一部分人会面临下岗
AI取代这些人,和电子设备取代售票员没区别
【 在 biteapple 的大作中提到: 】
: 喂一次就行还是以后每次问都得先喂一遍
--
FROM 111.199.106.*
刚才试了以下,把我们公司的一个芯片手册在线喂给了kimi
问了几个常见的问题和解决方案,真的太给力了,关于里面的内容基本上问啥都知道,一般需要反应十几秒,不像那些普适的问题能够秒输出
想找一个超过kimi的工程师,至少得掏2w块钱一个月,只是很多客户还没有反应过来这么用AI
ds一直还没玩过,看大众反应应该不会比kimi差
【 在 biteapple 的大作中提到: 】
: 喂一次就行还是以后每次问都得先喂一遍
--
FROM 111.199.106.*
不如32b快。
我开了一整天,到了晚上摸了一下,键盘处还是有点热,但是不烫手。
【 在 jackalove 的大作中提到: 】
: 出回答快吗
:
--
FROM 222.131.50.*
这个手册多大?
【 在 VIV 的大作中提到: 】
: 刚才试了以下,把我们公司的一个芯片手册在线喂给了kimi
: 问了几个常见的问题和解决方案,真的太给力了,关于里面的内容基本上问啥都知道,一般需要反应十几秒,不像那些普适的问题能够秒输出
: 想找一个超过kimi的工程师,至少得掏2w块钱一个月,只是很多客户还没有反应过来这么用AI
: ...................
--
FROM 122.227.64.*
是kimi里直接上传附件吗
【 在 VIV 的大作中提到: 】
: 刚才试了以下,把我们公司的一个芯片手册在线喂给了kimi
: 问了几个常见的问题和解决方案,真的太给力了,关于里面的内容基本上问啥都知道,一般需要反应十几秒,不像那些普适的问题能够秒输出
: 想找一个超过kimi的工程师,至少得掏2w块钱一个月,只是很多客户还没有反应过来这么用AI
: ...................
--
FROM 122.227.64.*