- 主题:deepseek 671b r1一出,洋垃圾又要暴涨了
国产的AI自己去试一下会残废掉的吗?
【 在 Acui 的大作中提到: 】
: 怎么搞的

--
FROM 223.104.69.*
厉害,看来是我工作内容太简单不配用
【 在 MrRight (谁找我) 的大作中提到: 】
: 就是这道题,只有DeepSeek深度思考做对了;ChatGPT 4o都看不懂题:
:
: 两地A、B之间相距4000m;甲从A地以匀速60m/min向B出发,同时乙从B地出发以匀速260m/min向A出发。乙到达A地之后立即以同一匀速折返向B地,追上甲之后,甲和乙以相同的匀速175m/min到达B地。如果甲和乙分别从A、B两地相向出发的时刻是上午7:20, 则甲和乙携手到达B地时,距离上午8:00还差几分钟?
:
--
FROM 119.166.113.*
二三十。不过8b模型太弱,基本没啥用。70b的64G内存可以装下,内存占用48G,
显存占用4-5G,很慢,每秒一个token,然后代码能力不如刚发布的27b的mistral-small。
70b已经不能用一张5090搞定了,27b的勉强可以。
中文能力deepseek超强,西方语言最强的似乎是mistral。
做高考理科导数题,这几个模型都在胡说八道,第一问很多模型都会,第二问起只有deepseek
在线版好一些,做出一问,第二问整出一个不寻常的简单证明,后面就不会了。
在线版的deepseek代码能力还不错,我就不折腾本地的了。对了,数学和编程一定要用英语
跟他对话,英语的代码能力和数学能力似乎比中文的强很多。
【 在 hgoldfish 的大作中提到: 】
: 每秒可以出几个 token?
--
FROM 116.235.194.*
没错,14b显存需要10.9G
【 在 heideggerr 的大作中提到: 】
: 把电脑升级到了32GB,14b模型感觉稍微好了些,卡顿明显减少了,不过和官网输出速度比还是差距巨大。看来,还是得弄一块显卡。
--
FROM 183.185.75.*
我用起来很爽呀。
【 在 smthhz 的大作中提到: 】
: 随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
--
FROM 221.219.110.*
这个是Q4量化的么?
【 在 sxdxsimple 的大作中提到: 】
: 没错,14b显存需要10.9G
--
修改:adamhj FROM 202.109.128.*
FROM 202.109.128.*
看我32楼的show info的返回值。
【 在 adamhj 的大作中提到: 】
: 这个是Q4量化的么?
:
--
FROM 60.16.252.*
点深度思考和联网搜索了嘛?
【 在 smthhz 的大作中提到: 】
: 随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
: --
: 发自xsmth (iOS版)
: --
发自「今日水木 on NOH-AN00」
--
FROM 220.248.237.*
没联网,深度也用了也不行,不需要联网,从回答的内容看它的知识库有相关数据,而且是个多年前就有的一个api。可能它对这种问题不擅长吧。它可能强在数学题?感觉大部分实际应用场景都不如别的啊,还经常服务器繁忙。
【 在 xxys001 (思) 的大作中提到: 】
: 点深度思考和联网搜索了嘛?
: 【 在 smthhz 的大作中提到: 】
: : 随便问了个一个公开api的问题,错的离谱,同样问题gpt4就很正常,在我看来根本不能用啊
: : --
--
FROM 119.166.113.*
我在官网冲了10块钱
neovim配好试用了一下
然后就一直被攻击
本地弄了个14b,意义不大
【 在 Jacqueline 的大作中提到: 】
: 二三十。不过8b模型太弱,基本没啥用。70b的64G内存可以装下,内存占用48G,显存占用4-5G,很慢,每秒一个tok ...
--
FROM 45.77.189.*