- 主题:deepseek 671b r1一出,洋垃圾又要暴涨了
作为最强大的模型,它本地运行只需要768G内存,势必大幅增加洋垃圾服务器需求
--
FROM 167.220.255.*
最贵的是显卡,显卡都买了,还省钱买洋垃圾凑数?
【 在 coollpe 的大作中提到: 】
: 作为最强大的模型,它本地运行只需要768G内存,势必大幅增加洋垃圾服务器需求
--
FROM 113.206.173.*
随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
【 在 coollpe (coollpe) 的大作中提到: 】
: 作为最强大的模型,它本地运行只需要768G内存,势必大幅增加洋垃圾服务器需求
:
: --
:
--
FROM 119.166.113.*
得自己训练吗?
【 在 smthhz 的大作中提到: 】
随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
【 在 coollpe (coollpe) 的大作中提到: 】
: 作为最强大的模型,它本地运行只需要768G内存,势必大幅增加洋垃圾服务器需求
:
: --
:
--
FROM 123.114.81.*
我就是用的官网,没自己搞,官网都这样,还自己搞啥……
【 在 Fgps (good luck ! my father) 的大作中提到: 】
: 得自己训练吗?
: 【 在 smthhz 的大作中提到: 】
: 随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
:
--
FROM 123.235.226.*
有可能真的是拼多多版AI, 只是性价比高
【 在 smthhz 的大作中提到: 】
: 随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
: --
: 发自xsmth (iOS版)
: --
发自「今日水木 on iOS」
--
FROM 114.253.103.*
多问几次
【 在 smthhz 的大作中提到: 】
: 随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
--
FROM 175.153.163.*
r1思考时间就够长了…… 我只是懒得查文档了,对于那么简单的问题再问几次不如我自己看文档去了
【 在 niumiu (海贼王) 的大作中提到: 】
: 多问几次
: 【 在 smthhz 的大作中提到: 】
: : 随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
:
--
FROM 123.235.226.*
人手一个大模型
【 在 coollpe 的大作中提到: 】
: 作为最强大的模型,它本地运行只需要768G内存,势必大幅增加洋垃圾服务器需求
- 来自 水木说
--
FROM 116.246.28.225
最好还是基础大模型 + 个性化模型,前者是厂商训练的,后者是用户在自己家里训练的。
【 在 ysd 的大作中提到: 】
: 人手一个大模型
:
: - 来自 水木说
--
FROM 113.232.149.*