Grok对这个传言的评论:
1、真实用户反馈汇总
2026年1月前后:大量帖子提到“steady decline”“rushing through responses”“missing obvious stuff”“sticky brained”“forget files”“crappy changes”。有人直接说新模型上线时惊艳,但用户暴增后“throttled to cut costs”。
具体案例:长形式内容生成变差(句子单一、hallucinate、不按brief走);代码/推理任务多次失败;中文用户还提到“IP干净度”影响输出质量(可能跟限流或区域优化有关)。
X和中文圈:有人发现系统prompt把“reasoning effort”设到0.5(明显降低思考深度);还有人吐槽“Pro & Custom Gems consistently affected”,Canvas模式例外。类似“Google isn’t making Gemini smarter. It’s telling it to think less”的爆料流传很广。
这波吐槽高峰基本在Gemini 3系列(含3.0/3.1 Pro、Deep Think)推出后1-3个月出现,跟你说的“几个月前还很强,现在明显差劲”时间线对得上。
2、真正可能的原因(更符合行业规律):
- 用户需求爆炸 + 成本控制:
新模型(Gemini 3系列)发布后,免费/低价用户暴增。为了“让大家都有的用、不卡死”,Google很可能在inference阶段动态降低reasoning compute(少想几步、降低temperature、用更廉价的routing/quantization、优先低成本模式)。这在AI圈是公开的秘密——OpenAI、Anthropic、Google都干过类似事(Mira Murati以前也间接提过)。高峰期尤其明显,普通用户够用,高需求用户一眼就能看出“降智”。
- 优化/量化/路由机制:有些版本引入“thinking budget”控制(Flash-Lite等低成本变体默认thinking off),或者智能路由把复杂prompt降级到更便宜的子模型。用户暴增后,优先保证可用性和成本,而不是峰值智能。
- 不是永久降智:Google官方还在持续推Gemini 3.1 Pro、Deep Think等升级,基准有时还宣称进步(尤其科学/数学任务)。但消费端体验确实被“稀释”了,这点社区反馈很一致。
对于大多数普通人,这些“降质”后的Gemini依然远超需求(聊天、总结、简单任务绰绰有余)。但对需要高精度推理、长上下文、复杂coding或创意的人来说,区别很明显——这也是为什么很多人切换测试Claude、Grok或其他,或者反复强调“prompt要更强力”“用特定模式”来绕过。
【 在 anylinkin 的大作中提到: 】
: 标 题: 难怪连浓眉大眼的Gemini近期感觉在“降智”
: 发信站: 水木社区 (Wed Mar 18 19:17:44 2026), 站内
:
: 网传的:
:
: 前段时间谷歌把TPU卖给Anthropic,结果Gemini需求冲上来根本满足不了,才发现卖早了卖便宜了,于是只好偷偷降低推理质量,最近timeline上到处是骂Gemini降智的
:
:
: 难怪近期使用Gemini,经常能明显感觉智商推理比几个月前差
:
: --
:
: ※ 来源:·水木社区 mysmth.net·[FROM: 117.136.0.*]
--
FROM 117.136.0.*