## DeepMind创始人哈萨比斯承认：AI安全治理已失效，超级智能或灭绝人类
最致力于AI安全的创始人，亲口承认了安全治理的彻底失败。DeepMind联合创始人德米斯·哈萨比斯近日公开表示，超级智能可能导致人类灭绝，而现有的治理结构——包括董事会和伦理委员会——在关键时刻并不可靠，无法确保做出正确的决定。这一自白，来自一位曾誓言用严密制度将AI“锁进笼子”的理想主义者，标志着他从依赖外部治理，转向了极具现实主义色彩的个人行动逻辑：他必须“坐上谈判桌”，亲自争取影响力来为AI安全护航。

哈萨比斯并非普通的AI加速派。他长期处于一个深刻的矛盾之中：正是出于对“AI灭绝风险”的极度了解和焦虑，他才决定亲手制造AI，以期从内部引导其走向安全。他与DeepMind另一位联合创始人、现任谷歌DeepMind首席AGI科学家的谢恩·莱格，正是在一次AI安全讲座上相识。哈萨比斯对风险的认知甚至超越了最激进的抗议者，他曾当面告诉埃隆·马斯克，殖民火星无法躲避恶意的超级智能，因为后者同样能建造星际火箭。

这种深刻的危机感，曾催生他早期极具英雄主义色彩的“单体治理”构想——计划带领全球顶尖科学家躲进与世隔绝的“地堡”，像执行“曼哈顿计划”一样，在无外界干扰的环境中开发首个“绝对安全”的超级智能。然而，现实的竞争压力，尤其是被卷入AI“战时军备竞赛”的处境，迫使他的理想一再破灭。如今，他承认安全不再取决于预设的治理框架，转而采取了一种近乎悲剧性的现实策略：在无法阻止竞赛的情况下，确保自己成为掌握“火种”的关键一方。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: 人工智能安全, AGI风险, 科技伦理, 谷歌, 行业领袖
- **Credibility**: unverified
- **Published**: 2026-03-31 01:09:40
- **ID**: 42115
- **URL**: https://whisperx.ai/zh/intel/42115