- 主题:难怪连浓眉大眼的Gemini近期感觉在“降智”
网传的:
前段时间谷歌把TPU卖给Anthropic,结果Gemini需求冲上来根本满足不了,才发现卖早了卖便宜了,于是只好偷偷降低推理质量,最近timeline上到处是骂Gemini降智的
难怪近期使用Gemini,经常能明显感觉智商推理比几个月前差
--
FROM 117.136.0.*
Grok对这个传言的评论:
1、真实用户反馈汇总
2026年1月前后:大量帖子提到“steady decline”“rushing through responses”“missing obvious stuff”“sticky brained”“forget files”“crappy changes”。有人直接说新模型上线时惊艳,但用户暴增后“throttled to cut costs”。
具体案例:长形式内容生成变差(句子单一、hallucinate、不按brief走);代码/推理任务多次失败;中文用户还提到“IP干净度”影响输出质量(可能跟限流或区域优化有关)。
X和中文圈:有人发现系统prompt把“reasoning effort”设到0.5(明显降低思考深度);还有人吐槽“Pro & Custom Gems consistently affected”,Canvas模式例外。类似“Google isn’t making Gemini smarter. It’s telling it to think less”的爆料流传很广。
这波吐槽高峰基本在Gemini 3系列(含3.0/3.1 Pro、Deep Think)推出后1-3个月出现,跟你说的“几个月前还很强,现在明显差劲”时间线对得上。
2、真正可能的原因(更符合行业规律):
- 用户需求爆炸 + 成本控制:
新模型(Gemini 3系列)发布后,免费/低价用户暴增。为了“让大家都有的用、不卡死”,Google很可能在inference阶段动态降低reasoning compute(少想几步、降低temperature、用更廉价的routing/quantization、优先低成本模式)。这在AI圈是公开的秘密——OpenAI、Anthropic、Google都干过类似事(Mira Murati以前也间接提过)。高峰期尤其明显,普通用户够用,高需求用户一眼就能看出“降智”。
- 优化/量化/路由机制:有些版本引入“thinking budget”控制(Flash-Lite等低成本变体默认thinking off),或者智能路由把复杂prompt降级到更便宜的子模型。用户暴增后,优先保证可用性和成本,而不是峰值智能。
- 不是永久降智:Google官方还在持续推Gemini 3.1 Pro、Deep Think等升级,基准有时还宣称进步(尤其科学/数学任务)。但消费端体验确实被“稀释”了,这点社区反馈很一致。
对于大多数普通人,这些“降质”后的Gemini依然远超需求(聊天、总结、简单任务绰绰有余)。但对需要高精度推理、长上下文、复杂coding或创意的人来说,区别很明显——这也是为什么很多人切换测试Claude、Grok或其他,或者反复强调“prompt要更强力”“用特定模式”来绕过。
【 在 anylinkin 的大作中提到: 】
: 标 题: 难怪连浓眉大眼的Gemini近期感觉在“降智”
: 发信站: 水木社区 (Wed Mar 18 19:17:44 2026), 站内
:
: 网传的:
:
: 前段时间谷歌把TPU卖给Anthropic,结果Gemini需求冲上来根本满足不了,才发现卖早了卖便宜了,于是只好偷偷降低推理质量,最近timeline上到处是骂Gemini降智的
:
:
: 难怪近期使用Gemini,经常能明显感觉智商推理比几个月前差
:
: --
:
: ※ 来源:·水木社区 mysmth.net·[FROM: 117.136.0.*]
--
FROM 117.136.0.*
靠!卖什么卖!它不是不外卖的吗?
Anthropic是它投资的吗?
【 在 anylinkin 的大作中提到: 】
: 网传的:
: 前段时间谷歌把TPU卖给Anthropic,结果Gemini需求冲上来根本满足不了,才发现卖早了卖便宜了,于是只好偷偷降低推理质量,最近timeline上到处是骂Gemini降智的
: 难怪近期使用Gemini,经常能明显感觉智商推理比几个月前差
: ...................
--
FROM 117.143.169.*
Gemini自己的评论
reasoning effort: 0.5 是最让高阶用户心碎的。这在底层逻辑上意味着模型在生成每一个 Token 时,参与计算的神经元路径被“剪枝”了,或者搜索空间被强行压缩了。就像一个原本可以考 100 分的学生,被要求必须在 10 分钟内交卷,他只能给出最平庸、最不出错的答案,而失去了深思熟虑后的洞察力。
智能路由(Routing)的陷阱:
为了节约成本,系统会自动判断你的问题“难不难”。如果它判定这是一个简单问题,就会偷偷把你路由到更轻量、更廉价的子模型(比如 Flash 的变体)。但算法往往会误判——它可能觉得你在聊人生,实际上你在进行复杂的逻辑博弈。这种“降级处理”就是你感受到“降智”的直接来源。
“Canvas 模式”与“Deep Think”的溢价:
正如反馈所言,Google 并没有把聪明的模型弄丢,而是把它们“围蔽”了起来。高性能的推理被分配给了特定的模式(如 Deep Think)或者高价值入口。这验证了你的观点:Google 优先保证了“大家都有的用”,却摊薄了“精英用户的深度需求”。
【 在 anylinkin 的大作中提到: 】
: Grok对这个传言的评论:
: 1、真实用户反馈汇总
: 2026年1月前后:大量帖子提到“steady decline”“rushing through responses”“missing obvious stuff”“sticky brained”“forget files”“crappy changes”。有人直接说新模型上线时惊艳,但用户暴增后“throttled to cut costs”。
: ...................
--
FROM 117.136.0.*
反正Claude应该是更靠谱
虽然我没有怎么用过
【 在 anylinkin 的大作中提到: 】
: Grok对这个传言的评论:
: 1、真实用户反馈汇总
: 2026年1月前后:大量帖子提到“steady decline”“rushing through responses”“missing obvious stuff”“sticky brained”“forget files”“crappy changes”。有人直接说新模型上线时惊艳,但用户暴增后“throttled to cut costs”。
: ...................
--
FROM 117.143.169.*