## Anthropic安全负责人辞职警告“世界危险”，五角大楼施压解除Claude安全限制遭拒
2026年2月，硅谷AI安全领域的两股强大力量在同一时间点发生剧烈碰撞。Anthropic的安全负责人突然辞职，并留下“世界处于危险之中”的公开警告。几乎与此同时，美国五角大楼向该公司提出要求，希望其解除王牌模型Claude的核心安全限制，但遭到了Anthropic的坚决拒绝。这家以“控制AI风险”为存在理由的公司，其内部安全负责人与外部国家力量，正从两个相反的方向，拉扯着同一条名为“AI安全”的缰绳。

这一冲突将Anthropic推入了其创始人曾预言过的终极困局：你为世界铸造的AI安全护栏越坚固，试图拆除它的力量就越强大。Anthropic由前OpenAI高管达里奥·阿莫迪（Dario Amodei）及其妹妹丹妮拉（Daniela Amodei）于2021年创立，核心使命是解决“如何控制比人类更聪明的AI”这一命题。这个以防范风险为起点的理想主义赌注，在短短四年内获得了惊人的商业成功，公司估值飙升至3800亿美元，客户囊括全球顶级企业。

然而，国家力量的介入标志着游戏规则的改变。当一家公司的核心安全原则与国家级别的战略需求产生直接冲突时，其赖以生存的“宪法式AI”理念面临前所未有的压力测试。安全负责人的离职警告，与来自五角大楼的外部施压，共同构成了一个清晰的信号：Anthropic精心构建的AI安全体系，正成为多方力量博弈的焦点。这家公司的未来走向，不仅关乎其自身命运，更可能成为全球AI治理与安全竞赛的一个关键风向标。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: 人工智能安全, Claude, 五角大楼, AI治理, 硅谷
- **Credibility**: unverified
- **Published**: 2026-03-31 08:39:35
- **ID**: 42747
- **URL**: https://whisperx.ai/zh/intel/42747