## 算法参战：Anthropic拒绝军方要求，硅谷伦理在五角大楼压力下破裂
2026年2月，美国国防部长皮特·赫格塞思向AI公司Anthropic首席执行官达里奥·阿莫代发出最后通牒，要求其在周五下午5点01分前解除对其大语言模型Claude在军事网络上的安全限制，接受美军将该技术用于“所有合法用途”的统一条款，否则将面临被列为“供应链风险”或援引《国防生产法》强制改写代码的后果。Anthropic随后声明无法接受国防部的要求，强调凭良心无法签署可能将其技术用于无人类干预的致命自主武器或大规模监控的协议。谈判破裂后，美国总统特朗普下令所有联邦机构立即停止使用Anthropic技术，并设定了为期半年的淘汰过渡期。五角大楼随即将这家估值数千亿美元的明星独角兽列为“供应链风险”。国防部长赫格塞思在社交媒体上指责Anthropic的立场与美国原则不相容，宣称“美国的战士绝不会受制于大型科技公司的意识形态冲动”。这场冲突揭示了军工游说复合体如何将人工智能重塑为战争机器的运算核心，同时也暴露了私营科技企业试图对国家暴力机器行使“道德否决权”的政治天真。深层矛盾在于安全护栏的控制权归属。Anthropic试图建立可追溯的连带责任机制，主张任何政府使用都必须遵守其既定的“使用政策”。而五角大楼的逻辑是，只要行为符合美国宪法与武装冲突法，“所有合法用途”便具备正当性。军方认为，要求战地指挥官在执行军事行动前接受企业技术委员会的道德审查，是对军事决策权与国家主权的严重侵蚀。随着“联合全域指挥与控制”架构的推进，美军正试图将各域传感器与火力单元编织成实时响应的网络，传统的决策循环面临从以小时计向以秒计的压缩。在这种战场环境下，人工智能的定位已跳出后勤辅助范畴，成为需要无缝嵌入杀伤链、快速处理情报并生成战术预案的“硅基参谋”。Claude一度成为机密网络中唯一运行的前沿模型，正是因其卓越的态势感知与逻辑能力。
---
- **Source**: 
- **Sector**: The Network
- **Tags**: 人工智能, 军事, 国防, 供应链风险
- **Credibility**: unverified
- **Published**: 2026-03-06 03:35:36
- **ID**: 2310
- **URL**: https://whisperx.ai/en/intel/2310