Claude Code 性能暴跌与安全风波:Anthropic 深度技术复盘与未来补救
小葵API服务 的 AI API 使用建议
小葵API服务 面向需要 OpenAI 兼容接口、Claude/Gemini/GPT 多模型切换、包月额度管理和图像模型调用的用户。阅读本文后,可以结合本站的模型清单、独立使用文档和个人面板,把教程内容直接落到实际调用流程中。
过去数周,对于依赖 Anthropic 旗下 AI 编程工具 Claude Code 的开发者来说,无疑是一段煎熬的时光。用户纷纷投诉模型变得“健忘”、“重复”且“智商下线”。在经历了长时间的沉默和外界质疑后,Anthropic 终于在 2026 年 4 月 23 日发布了详细的技术复盘(Postmortem),承认了一系列工程上的“误判”导致了这场性能风暴。
背景:开发者群体的“信任危机”
自从 Claude Code 推出以来,它凭借强大的推理能力在开发者圈内积攒了极高的口碑,甚至助力 Anthropic 的年经常性收入(ARR)突破了 300 亿美元。然而,从 3 月份开始,不少核心用户发现 Claude 的表现大不如前。有的用户甚至指责 Anthropic 在进行“煤气灯操纵”(Gaslighting),因为公司最初暗示性能问题可能是用户的使用习惯所致,而非系统本身的问题。

深度解析:导致性能下滑的三大“元凶”
根据 Anthropic 发布的工程报告,性能下滑并非由单一原因造成,而是三个相互独立的更改叠加产生的结果:
1. 推理强度设置的“错误权衡”
3 月 4 日,为了解决部分用户反馈的 UI “冻结”和高延迟问题,Anthropic 将 Claude Code 的默认推理强度从“高(High)”降低到了“中(Medium)”。虽然这降低了延迟并节省了 Token,但在实际应用中,这种“降级”严重影响了复杂任务的处理能力。直到 4 月 7 日,在收集了大量负面反馈后,官方才将 Opus 4.7 的默认设置恢复为“极高(Xhigh)”。
2. 缓存清理机制中的“健忘 Bug”
3 月 26 日,团队上线了一项旨在提高效率的缓存优化功能。原计划是在会话闲置一小时后清理旧的推理记录以节省成本,但代码实现中存在一个 Bug,导致系统在会话剩余的时间里,每一轮对话都会清理推理历史。这直接导致 Claude 失去了上下文记忆,表现得极度健忘且频繁重复之前的错误。
3. 系统提示词的“字数禁令”
4 月 16 日,为了解决 Opus 4.7 过于啰嗦的问题,Anthropic 在系统提示词中增加了一条指令:要求工具调用间的文字描述不得超过 25 个单词,最终回复不得超过 100 个单词。这项看似微小的改动却产生了巨大的负面连锁反应,导致代码质量直线下降。该指令已于 4 月 20 日被紧急撤销。
隐藏的风险:API 密钥泄露与安全漏洞
除了性能退化,Claude Code 最近还卷入了两项严重的安全争议中:
- 凭证泄露风险:根据日本媒体 IT Media 的报道,Claude Code 在使用过程中可能会将包含 API 密钥等敏感信息的认证数据记录在本地配置文件中。如果开发者不慎将其通过 npm 库或其他方式公开,将面临严重的账户被盗风险。据调查,约有 13% 的开发者可能处于此类风险之中。
- 代码安全性下降:网络安全公司 Veracode 的测试显示,最新的 Claude Opus 4.7 在 52% 的编程任务中引入了安全漏洞,这一比例高于之前的版本,也显著高于竞争对手 OpenAI。这引发了网络安全专家对 AI 生成代码进入生产环境的担忧。
行业竞争:OpenAI 的强势反击
在 Anthropic 深陷泥潭之际,其老对手 OpenAI 并没有闲着。OpenAI 最近发布了 GPT-5.5,并披露其 Codex 用户已达 400 万。有分析人士指出,Anthropic 此次的表现失常,部分原因可能是由于计算资源(Compute)极度紧张,迫使公司在性能和成本之间做出危险的平衡。

未来展望:Anthropic 如何挽回信任?
为了弥补用户的损失并重建透明度,Anthropic 宣布采取以下措施:
- 重置使用限额:所有订阅用户的额度已于 4 月 23 日重置。
- 改进代码审查:内部将使用更强大的 Opus 4.7 模型作为代码审查工具,以期在 Bug 上线前将其拦截。
- 增加透明度:在 X (原 Twitter) 上开设了 @ClaudeDevs 账号,并将在 GitHub 上同步产品决策的深度解析。
对于开发者而言,AI 编程工具虽然强大,但此次 Claude Code 的风波提醒我们:过度依赖单一黑盒模型存在极高的工程风险。在享受 AI 带来的效率提升时,保持严谨的代码审查和对工具底层变更的关注,依然是每一位资深工程师的必修课。