水木社区手机版
首页
|版面-电脑硬件(Hardware)|
新版wap站已上线
返回
1/1
|
转到
主题:想在淘宝买台服务器家用,大神帮忙看下
8楼
|
ZHMZFFL
|
2024-08-21 02:00:32
|
展开
内存频率低了,可以用2400的
电源杂牌
多开虚拟机,黑产赚钱?
--
修改:ZHMZFFL FROM 101.24.94.*
FROM 101.24.94.*
26楼
|
ZHMZFFL
|
2024-08-21 15:58:16
|
展开
lmdeploy 这个有内置道德限制吗,这不回答那不回答的
【 在 LYMing1986 的大作中提到: 】
: 起了个PVE,上面现在仨系统:ubuntu 22.04、winserver 2016、群晖DS918 6.22
: ubuntu 跑一些常用的docker(其实群晖也能跑,但既然咱们都pve了。。),部署一些开源服务,很多服务必须linux
: 比如一个lmdeploy,运行了个9b的本地llm模型,作为全家各种服务的llm模型server
: ...................
--
FROM 101.24.94.*
29楼
|
ZHMZFFL
|
2024-08-21 16:12:13
|
展开
就是说要自己想办法去掉是吧
麻烦
【 在 LYMing1986 的大作中提到: 】
: 道德限制可以做个对齐的微调嘛
: 也可以做个过滤检查的服务/小模型
: 这就是工程问题了
--
FROM 101.24.94.*
34楼
|
ZHMZFFL
|
2024-08-22 17:24:28
|
展开
学到新词
我需要无限制的基座模型
【 在 LYMing1986 的大作中提到: 】
: 可以直接用已经完成对齐的模型,这里需要自己选需要的模型
: huggingface上的模型普遍都是同时有基座模型,和已对齐的模型
: llmdeply或者ollama这些都是load模型的engine工具,提供个rest api给内外网用户使用
: ...................
--
FROM 101.24.94.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版