- 主题:本地部署Deepseek,买什么配置电脑?
本地部署的最大优势是,可以利用本地数据对通用模型进行微调训练,得到适合自己需要的本地大模型,云服务是不可能提供这些信息的,未来大模型的发展方向 将会从通用大模型转向 面向企业、甚至是个人用户的私有模型。
【 在 Engelberger 的大作中提到: 】
: 显存越大越好,内存越大越好
: 个人感觉本地部署目前很难平衡性能和价格,部署大点的模型需要加显存内存,但与此同时云服务的api价格又在不断下降,买显卡的钱比用api贵多了...
: 我目前的计划是先用api和云服务,观望一下,等时机成熟再搞端侧
: ...................
--
修改:heideggerr FROM 113.232.155.*
FROM 113.232.155.*
总之,这是一次模式革新,从少数几个大厂垄断模型的训练,转变到众多企业用户可以参与的领域模型的训练。虽然,现在本地模型训练的成本还是有点高,但是毕竟已经降到一个够得着的水平了,我相信会有大量的行业软件开发者已经蠢蠢欲动了!甚至,搞得我这样的个人用户都开始蠢蠢欲动了。
【 在 Engelberger 的大作中提到: 】
: 可以租赁私有云。
: 以后有些本地化的场景:1.某些机器不能联网;2.个人想训练不受约束的模型(云服务商可能会ban掉);3.更长远的,手机上的端侧模型保护隐私;4.企业想要保护自己的商业秘密。
: 目前就我个人的需要而言,本地化的机器成本偏高,性能不足(尤其是联网搜索整合不好)
: ...................
--
FROM 113.232.155.*
AnythingLLM效果很差,因为模型对本地文档中的语言实体以及之间的关系完全没有理解,为了解决这个问题,必须使用本地文档对模型进行微调训练。
【 在 wangstone 的大作中提到: 】
: 主要看显存大小 其他都次要
: 7B跑RAG能行吗?我用anythingllm
: 喂的自己记的笔记,提问的时候牛头不对马嘴
: ...................
--
FROM 60.16.232.*
所有RAG类产品都不太行,你得使用模型微调技术,网上资料很多的。
【 在 wangstone 的大作中提到: 】
: 那用什么好?准备换RAGFLOW
:
--
FROM 60.16.232.*
所以,这就像当年的大型机、小型机时代,巨头一开始看不起微型个人计算机,然后不久就被个人计算机、PC操作系统厂商和PC软件开发商 扫到了历史垃圾堆一样。
【 在 adhere 的大作中提到: 】
: 同意你的观点,很多大公司的数据都放弃云服务改为本地私有化了,AI领域一个道理,我更看好个人消费端的市场
: 啥时候国内公司把4090显卡的价格卷到2000元,英伟达必然崩盘
:
--
FROM 175.164.31.*
RAG只能对局部问题做出回答,对于需要综合、推理的问题是完全没用的。我最近也在苦恼这个事情,对LLM进行微调是一个路子,但是需要对语料进行标注,标注为(Q,think,A)这样的三元组,这是完全不可行的。另外一个路子是GraphRAG,据说能够利用大模型把语料变成知识图谱,我对比表示谨慎的怀疑(我2012年开始搞语义网,那时还没有大模型,一切都需要靠手搓,实体识别和关系提取就是一个天坑)。所以,搞不好,本地化信息融入到大模型这件事可能还有很长的路要走。
【 在 wangstone 的大作中提到: 】
: 改进了
: Embeding换了nomic模型
: LLM改用14B 16FP的DS或者千问
: ...................
--
FROM 175.169.211.*
还没有,我也是在学习、摸索中。
【 在 orientodd 的大作中提到: 】
: 牛,有什么好的实现思路吗?毕竟用上这些工具肯定比没有强
--
FROM 175.164.15.*
昨天看到有人说知乎上线了基于Deepseek的知识库问答系统,我随便上传了一个雅马哈V340功放的说明书给它,然后简单问了几个问题,问“杜比数字逻辑”和“杜比逻辑”是想看它能不能把文档中不同地方的信息关联起来,结果它回答得非常全面,这叫我感到非常震惊,然后又问了喇叭数量的问题,以及MAIN A和MAIN B的区别,它竟然表现出令人震惊的推理能力。下面是问答的过程:
问:V340是哪个公司生产的?
回答:
根据提供的Yamaha RXV340中文说明书内容,V340型号属于雅马哈(Yamaha)公司生产的产品。在制造商代码表中,"雅马哈"对应的编码为297(电视类)以及392、393、394(录像机类),结合产品型号前缀"RX"通常用于雅马哈的AV接收器系列,可确认该设备为雅马哈品牌。
问:杜比数字和杜比逻辑在电影播放中有什么区别?
回答:
杜比数字(Dolby Digital)和杜比逻辑(Dolby Pro Logic)在电影播放中的核心区别体现在技术原理、音轨格式和适用场景:
1. **技术原理**
- **杜比数字**:采用独立多声道编码(如5.1),每个声道(左、右、中置、环绕等)单独记录数据,通过数字传输实现精准声场定位。
- **杜比逻辑**:通过矩阵解码技术,从双声道立体声信号中提取隐藏的环绕声信息,扩展为模拟多声道(如4.0或5.1)。
2. **电影音轨适配性**
- **杜比数字**:用于现代电影数字音轨(如蓝光、流媒体),支持高码率音频,动态范围更广,爆炸、环境音等细节更清晰。
- **杜比逻辑**:适配早期电影或未配置多声道音轨的内容(如老片修复版、电视直播),将立体声信号转化为环绕声。
3. **设备与兼容性**
- **杜比数字**:需片源和播放设备(如AV功放)均支持数字解码,HDMI或光纤传输。
- **杜比逻辑**:兼容模拟信号(如老式DVD、电视广播),对设备要求较低,旧功放也可处理。
4. **实际效果差异**
- **杜比数字**:声道分离度高,声音定位精准(如飞机从左至右飞过的轨迹分明)。
- **杜比逻辑**:环绕声道为单声道模拟,声场连贯但分离度较弱,适合对白为主的场景。
**典型应用场景**:
- 若播放《复仇者联盟》蓝光版,优先使用杜比数字;观看80年代电影电视版时,杜比逻辑可提升环绕感。
- 两者可共存:部分功放(如雅马哈RX-V340)支持自动切换,根据片源选择最佳解码模式。
问:V340最多可以接几个喇叭?
回答:
根据雅马哈RX-V340的环绕声系统规格,其最大喇叭连接能力如下:
1. **主声道**:前置左/右(2个)
2. **中置声道**:1个
3. **环绕声道**:后左/右(2个)
4. **低音炮**:1个(通常为有源,通过RCA接口连接,不计入无源喇叭数量)
**总计**:可同时连接**5个无源喇叭**(前2+中1+后2)+1个有源低音炮,组成标准5.1声道系统。设备不支持7.1声道或多区域扩展,因此无法增加更多独立喇叭。
问:我发现前置音箱包括一对MAIN A和一对MAIN B音箱,这样一共可以接7个音箱+一个有源低音炮,不是吗?
回答:
根据雅马哈RX-V340的说明书设计,您的情况需要澄清以下关键点:
1. **MAIN A与MAIN B的互斥性**
虽然功放允许物理连接两对前置音箱(MAIN A和MAIN B各一对),但说明书明确指出“仅使用一个扬声器系统时,将其连接到MAIN A或MAIN B中的任何一个”。这意味着 **两组主音箱无法同时工作**,只能通过功放切换选择其中一组发声(例如用于不同房间的音响切换)。
2. **总无源音箱上限**
RX-V340支持的 **无源音箱总数仍为5个**(前2+中1+环绕2),即使连接MAIN A+B两对前置(4个),实际使用时仍需禁用其中一对。若强行同时启用两组前置,会导致:
- 阻抗负载超出安全范围(单组最低6Ω,并联可能降至3Ω触发保护)
- 声道信号冲突(如左右声场混乱)
3. **实际可发声的配置**
- 标准5.1声道:MAIN A(2前置) + 中置(1) + 环绕(2) + 低音炮(1)
- 若尝试连接MAIN A+B(4前置)+中置(1)+环绕(2),总数为7无源+1低音炮,但功放仅驱动其中5无源(需手动关闭多余音箱),否则可能损坏设备。
**结论**:物理上可接7个音箱+低音炮,但实际同时工作的无源音箱仍为5个(MAIN A或B选其一)。说明书中的“两个扬声器系统”指物理接口扩展,非声道扩容。
问:同时设置MAIN A和MAIN B两对音箱的目的是什么?
回答:
雅马哈RX-V340允许同时连接 **MAIN A** 和 **MAIN B** 两对前置音箱,但其设计目的并非扩展声道数量(仍为5.1),而是实现以下功能:
1. **多房间/多场景音频切换**
- 例如:MAIN A接客厅音箱,MAIN B接餐厅或其他房间音箱。通过功放面板或遥控器 **切换输出**(A或B),实现不同区域的独立控制,但无法同时发声。
2. **音色适配或备用选择**
- 可连接两组不同特性的音箱(如一对适合电影,另一对适合音乐),根据需求快速切换,无需重新接线。
3. **物理接口冗余**
- 若MAIN A接口损坏,MAIN B可作为备用接口使用。
**注意**:
- 两组前置音箱 **阻抗需匹配**(均≥6Ω),且不能并联使用(否则阻抗可能低于安全阈值)。
- 总功率分配受限,切换至单组时音质更稳定。
- 说明书明确标注“同时使用两组主音箱可能导致过热或故障”,因此实际应用中需严格遵循单组激活规则。
【 在 zhangcx 的大作中提到: 】
: 同在研究这些 要么建个群一起研究下
:
--
FROM 113.224.153.*
为了证实或者证伪你的观点,我又上传了一个内部文档(互联网上找不到),然后再问它问题,如你所说它开始答非所问了,所以,你说的是对的,这证明知乎本地知识库就是一个RAG,它本质上对本地化信息仍然是无能为力的。
【 在 tgfbeta 的大作中提到: 】
: 啥叫理解能力?
: LLM都是一堆的做题家,就会背书本
: 你问的这些大概是有人在网上贴过答案的
--
FROM 113.224.153.*
这几天花了点时间,跑了下graphrag-local-ollama, 踩了无数的坑之后,终于得到了node、relationship和communities,我大致浏览了下,完全不可用,当然也可能是我本地部署的deepseek-r1:14b模型比较弱导致的,暂时死心了。
【 在 zhangcx 的大作中提到: 】
: 你不传可能也可以
--
FROM 113.233.213.*