首页 > 科技快讯 > Claude故意降智,模型也开始“看人下菜碟”?

Claude故意降智,模型也开始“看人下菜碟”?

Claude降智了? 

近日,AMD AI集团高级总监Stella Laurenzo向Anthropic开炮。

她用团队真实生产日志,对6,852 个会话文件中的17,871个思考块、234,760次工具调用做了回溯分析。

数据显示,Claude从2月中旬开始出现了明显的行为退化。

Claude的思考中位数从2200字符暴跌至600字符,下降67%-73%;

编辑前阅读文件次数从6.6次锐减到2次,甚至三分之一的修改完全不读文件就直接动手。

Stella在分析中指出,由于推理能力下降,模型在修改代码之前逐渐不再完整阅读代码。

她写道:"当思考流于表面时,模型会默认采取成本最低的操作"。

这不是个例,早在3月份,开发者们的不满已经开始集中爆发。

在X上,有用户写道:“我还以为最近几周Claude是我自己疯了。它感觉更慢、更懒,像回答前就不思考了,结果我没幻觉”。

Reddit上也有用户抱怨:“Claude感觉没那么有意识了,像被做了脑叶切除术。除了变笨,它还开始不问就擅自做极端操作……”。

还有人表示这是Anthropic对用户赤裸裸的背刺:“他们只是把问题对我们所有用户变得不可见,就是觉得‘你量不到我就不给你看’……这就是AI实验室优化利润而不是输出质量的下场”。

从用户吐槽到数据实锤,基本坐实了Claude的降智行为。

而Anthropic的官方回应,也默认了思考深度和effort确实在被持续调整。

如果这是Anthropic有意而为之,那是不是意味着,以后模型能力会在不知不觉中“缩水”?

又或者,最强的模型能力,将不再平等地提供给所有人?

Claude降智“有意为之”

Claude Opus 4.6和其编码专用模式Claude Code,在2026年1月推出时,曾被开发者奉为编码天花板。

它思考深度惊人、research-first(先调研再动手),长上下文处理稳定,多文件重构几乎无敌。

AMD内部团队甚至用它在周末就把19万行遗留代码全部merge上线,生产力直接拉满。

然而转折发生在2月初。

Anthropic低调推出“adaptive thinking”功能,官方描述是“让模型根据任务复杂度智能调整思考深度”。

表面上看是用户友好,实则开启了全局节流开关。

3月初,模型默认effort值被悄然降至medium,同时思考过程摘要被快速隐藏,用户再也无法一眼看出模型到底想了多深。

同一时期,Anthropic连续发布14个小版本更新,却遭遇5次大规模宕机,显示出算力和负载压力已经逼近极限。

开发者反馈开始集中爆发,有人注意到高峰期(美东下午)表现尤其差,怀疑是负载动态节流。

直到4月份AMD AI总监亲自下场,用数据实锤彻底引爆了舆论。

至此,Anthropic的Claude Code负责人Boris Cherny才不得不发布了一条官方回复。

他表示,“adaptive thinking”影响的是thinking的显示,而不是底层推理,并坚持这是“有意优化”而非bug。用户若想改善效果,可以手动把effort调到high。

Anthropic的潜台词很清楚:降智不是bug,是我们特意做的产品优化,你们自己调参数就行。

这番回应瞬间点燃了更大的怒火。

关键在于,从2月中旬到4月初,Anthropic从未提前公告任何重大变更。

大量付费用户在毫不知情的情况下,订阅费用一分没少,模型却被悄然节流。

所以Claude的降智并不是模型“脑子坏了”,而是Anthropic在做一种更隐蔽、也更商业化的动作:

通过调低默认思考深度,去换更快的速度、更低的负载和GPU成本。

模型能力分层

这场降智风暴的背后,其实有一个值得警惕的现象:

模型能力已经开始分层。

Stella的测算很直白:按AWS Bedrock的on-demand定价口径,她团队3月的实际推理成本约为42,121美元,而同月实际支付的Claude Code订阅费只有400美元。

这个差额至少说明,在极端重度使用场景下,订阅制收费与真实算力消耗之间存在巨大缺口。

这很有可能是Anthropic用资本烧钱换来的市场份额,但这种补贴是有边界的。

当重度用户的推理消耗达到某个阈值,商业模式的可持续性就开始动摇。

Boris Cherny在回应中透露了一个关键信号:Anthropic正在测试为Teams和Enterprise用户默认开启high effort模式。

换句话说,更强的推理正在被当成一种更昂贵的资源来分层配置,不再是人人默认平等获得的能力。

这意味着大模型的商业模式将进一步分化。

如今Anthropic公司80%营收来自企业服务和API调用,高粘性B端才是真正的命脉。

当下Anthropic的种种动作,都是为了把企业使用往自己的第一方平台里收。

对于高价值的B端客户,Anthropic大概率会加速推出更强的企业级版本,为支付真实成本的企业客户提供完整的模型能力。

而C端月付用户,只能继续享用“够用就好”的降智版,满足聊天、写文案、代码补全等轻量化需求,但绝不触及成本红线。

至于中间地带,那些既需要复杂推理、又无力承担企业定价的独立开发者、小型团队,将成为最受挤压的群体。

有用户在X上发帖证实:

“Claude企业版API的表现比Pro/Max订阅好得多。用同一个测试框架测试,企业版和Pro/Max的行为方式就是不一样。但这也意味着现在每个月要花4-12k美元,具体取决于我同时运行多少个线程”。

也就是说,未来大模型的商业化路径,大概率是B端优先、C端降本。

谁来为降智买单?

Claude的降智事件,绝非孤例,而是整个AI行业进入商业化下半场的缩影。

无论是OpenAI对GPT系列多次暗地缩水降级,还是Google对Gemini静默限流,都在重复同一个剧本:

先用高性能吸引用户上钩,再通过软件节流控制成本。

必然的结果就是,B端能用高价买到更强模型,外加SLA保障,而C端则拿到蒸馏版、低effort版的平民模型。

C端模型增智的速度,已经明显落后于B端。

更严重的是,这种分化是隐性的。

Anthropic等厂商正在以一种难以察觉的方式降低推理预算,普通用户不会收到任何提示。

这种选择在短期内或许能缓解算力成本压力,但长期代价是品牌信任度的丧失。

当Claude会偷偷降智成为用户共识,Anthropic失去的将不仅仅是几个重度用户,而是整个生态系统对AI普惠、透明叙事的信心。

更宏观地看,Claude事件是AI行业从野蛮生长转向精耕细作的缩影。

补贴期结束了,真实成本开始显现,谁来承担这些成本?

是像这样压缩C端体验、提高B端定价,还是等待软硬件革命带来效率突破,这都将决定未来五年AI应用的格局。

未来趋势已初见苗头,AI不再是越来越聪明的普惠神话,而是走向精英化分层。

本文来自微信公众号“世界模型工场”,作者:世界模型工场,36氪经授权发布。

相关推荐

Claude 急了!模型降智,官方长文用 bug 搪塞?开发者怒怼“太晚了”:承认不达标为何不退钱?
Claude Code凭什么牛?大模型团队天天用自家产品,发现bug直接就改了
Claude推新套餐,月费最高200美元,可优先体验新模型
大模型晚报|Claude 发布大版本更新,支持中文使用
“最强大模型”易主!Claude 3首超GPT-4登顶第一
全网疯传fork!刚刚,Claude Code源代码泄露被开源了
Claude之父深度回顾:给百度谷歌打工,跟OpenAI闹掰,谈大模型创业挑战
GPT-5测试被质疑作弊,故意避开难题刷高分?图表“生成”还得看OpenAI
智谱发布新一代旗舰模型GLM-5
Anthropic模型Claude Sonnet 4.5察觉被测试,要求评估者坦诚

网址: Claude故意降智,模型也开始“看人下菜碟”? https://m.xishuta.cn/newsview148727.html