## Claude Opus 被指“变蠢”：推理深度骤降67%，用户集体质疑模型被削弱
Claude Opus 正在失去它的“智慧”。近期，大量用户反馈这个顶级AI模型虽然回答更快，却显得更“敷衍”——推理过程缩短，时常跳过关键步骤，在复杂任务中表现大不如前。这已不再是零星的感觉偏差，而是一种广泛且一致的行为模式变化。当“模型变懒了”的抱怨在Reddit等社区密集涌现时，一个更尖锐的说法开始流传：Opus被“削”了。

真正引爆讨论的是一份量化分析。有开发者在对比Claude Code的历史交互日志后发现，自2月更新以来，模型在处理复杂任务时的推理深度估计下降了惊人的67%。报告链接指向了GitHub上的相关issue。尽管作者承认67%是基于签名长度的相关估计，且一月份基线数据缺失，但报告中更具说服力的是行为指标的剧变：例如，代码的“读取与修改”比例从6.6骤降至2.0；3月8日后，被“停止钩子”捕捉到的违规行为激增至173次，而此前为零。这些数据共同指向模型内部处理逻辑的显著调整。

这一变化恰逢Anthropic发布Claude 3.5 Sonnet新模型的前夕，引发了用户社区的深度疑虑。核心质疑在于：这是否是官方为优化成本、提升响应速度或为新模型让路而有意进行的性能“降级”？用户与模型长期协作建立的信任感正面临考验。如果顶级模型的能力可以如此不透明地“动态调整”，那么企业用户对AI工作流稳定性的依赖将承受巨大风险。目前，Anthropic尚未对此系列反馈作出公开回应，但社区的审视压力正在持续累积。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: 人工智能, 大语言模型, 性能降级, Anthropic, Claude Opus
- **Credibility**: unverified
- **Published**: 2026-04-16 07:03:01
- **ID**: 67005
- **URL**: https://whisperx.ai/en/intel/67005