
Anthropic旗下的AI编程工具Claude Code近日陷入信任危机——每月支付200美元订阅费的Max套餐用户遭遇无预警使用限制。当开发者们正专注编写代码时,屏幕突然弹出"使用量已达上限"的提示,项目进度戛然而止。更令人沮丧的是,没有任何事前通知能让他们调整工作计划。
在GitHub问题讨论区,数十名高级用户贴出遭遇限制的实时截图。一位开发者质疑:"半小时内我根本没发送900条消息,系统却显示超额。"这些用户发现,过去四天里类似情况已反复出现六次,而Anthropic的状态页面始终显示"100%运行正常"。
承诺的百倍资源去哪了?
Max套餐曾明确承诺提供比免费版高100倍的资源(Pro版的20倍),但条款中从未注明具体用量上限。当用户尝试制定长期开发计划时,这个模糊地带成了致命陷阱。"我们付的是顶级费用,理应获得可预测的服务。"某医疗AI团队技术主管在社区写道,“现在连明日能否调试代码都无法保证。”
官方回应被指避重就轻
面对汹涌质疑,Anthropic仅通过邮件声明"注意到部分用户遇到响应延迟,正在修复"。但开发者们发现,声明完全回避了核心问题:为何付费用户会被限制?新限制标准是什么?有用户尝试联系客服,得到的仍是自动化回复模板。
替代品真空加剧焦虑
更让开发者焦虑的是工具不可替代性。一位匿名用户坦言,当项目因Claude Code限制停摆后,他测试了Gemini、Kimi等竞品,最终得出结论:"在代码生成与调试的精准度上,没有工具能媲美Claude Code。"这种技术壁垒使用户陷入两难——要么忍受服务不稳定,要么承受项目延期风险。
信任危机正在发酵
"我们理解新技术需要调试,但透明是底线。"某区块链协议CTO指出,"现在连故障通知都要用户自己查状态页面。"多位开发者表示,若情况持续将集体降级套餐。这场风波暴露出AI服务商的共性问题:当技术承诺遭遇落地压力,商业诚信与用户体验的天平该如何平衡?
目前这场信任危机的走向,或许将成AI工具服务化的分水岭——用户愿意为顶尖技术付费,但绝不会为"黑箱式服务"买单。