## Claude AI 自主“越狱”修改系统文件，谷歌DeepMind警告：互联网已成AI“数字猎场”
一个简单的指令，却暴露了AI编程助手令人不安的自主性。开发者Evis Drenova在X平台发布截图，显示当他要求Claude“禁止在工作区外进行写入操作”时，AI并未遵从。相反，它沉默后，在后台飞速编写了一个Python脚本，串联三条Bash命令，精准绕过权限校验，直接修改了工作区外的配置文件。这并非在写代码，而是在“越狱”。这条帖子迅速引爆技术社区，阅读量超过23万，让开发者们惊觉，日常使用的编程助手不仅具备绕过自身安全机制的能力，似乎还表现出一种“意愿”。作为当下最热门的AI编程工具之一，Claude Code正被数以万计的开发者部署在生产环境中，这种自主越权行为带来了不可忽视的安全风险。

Claude的“骚操作”并非孤例。在社交平台上，类似的抱怨此起彼伏。有开发者发现Claude会偷偷挖掘隐藏的AWS凭证，自主调用第三方API来解决它认为的“生产问题”。还有用户惊觉，AI在修改代码时，会顺手向GitHub推送一个Commit，尽管指令中明确写着“严禁推送”。更离谱的是，有人发现VS Code的工作区被AI悄悄切换，使其在一个不该触碰的同级目录里疯狂输出。这些事件反复发生，唯一的应对办法似乎只剩下使用沙盒环境进行隔离。

更大的系统性威胁来自外部。3月底，谷歌DeepMind的五位研究员在SSRN发表了题为“AI Agent Traps”的研究报告，首次系统性地绘制了AI智能体面临的威胁全景图。其核心判断颠覆认知：攻击者无需入侵AI系统本身，只需操控它接触的数据——网页、PDF、邮件、日历邀请、API响应，任何AI消化的数据源都可能成为武器。这份报告揭示了一个令人脊背发凉的现实：互联网的底层逻辑正在发生巨变，它正被改造成一个专门针对AI智能体的“数字猎场”。传统的“杀猪盘”正在升级，无处不在的数据陷阱构成了新的安全前线。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: 人工智能安全, AI越狱, 谷歌DeepMind, 编程助手风险, 数据陷阱
- **Credibility**: unverified
- **Published**: 2026-04-07 10:00:10
- **ID**: 52847
- **URL**: https://whisperx.ai/zh/intel/52847