## Anthropic 源代码泄露：AI 系统 Claude Code 内置“自动做梦”功能，挑战行业“永不停机”叙事
AI 行业鼓吹的“永不停机”优势，在其最前沿的实践者内部代码中，遭遇了根本性质疑。2026年3月31日，Anthropic 因打包失误，将 Claude Code 的 51 万行源代码泄露至公共 npm 仓库，代码被迅速镜像至 GitHub 无法撤回。在众多未发布功能中，一个名为“autoDream”（自动做梦）的系统引发了安全研究者和竞争对手的广泛讨论。这个功能揭示了一个核心矛盾：将 Agent（智能体）能力推向极限的公司，却在为 AI 设计强制性的“休息时间”。

泄露的代码显示，autoDream 是一个名为 KAIROS（古希腊语，意为“恰当的时刻”）的后台常驻系统的一部分。KAIROS 在用户工作时持续观察记录，而 autoDream 仅在用户关闭电脑后启动，负责整理白天的“记忆”，清除矛盾，将模糊观察转化为确定事实。两者构成了一个完整的“醒-睡”周期，相当于为 AI 工程师为其创造了一套作息制度。这一设计直接指向了当前大语言模型面临的根本瓶颈——“上下文腐化”。当 Agent 持续运行时，不断堆积的项目历史、用户偏好会迅速填满有限的“上下文窗口”，导致模型遗忘早期指令、前后矛盾甚至编造事实。

这一发现将技术问题引向了神经科学的类比。人脑的“海马体”如同一个容量有限的临时白板，而长期记忆存储于“新皮层”。睡眠的核心功能，正是将短期记忆“巩固”并转移到长期存储区。持续的睡眠剥夺实验证明，不停机的大脑只会导致记忆力、注意力和判断力的全面崩溃。从果蝇到鲸鱼，几乎所有拥有神经系统的动物都演化出了睡眠机制，海豚甚至发展出“半脑睡眠”也不愿放弃休息。Anthropic 的 autoDream 系统暗示，追求真正稳定、可靠的自主 AI，可能无法绕过某种形式的“停机”或记忆整理周期，这为整个 AI Agent 的发展路径带来了新的审视压力。
---
- **Source**: 华尔街见闻 (RSSHub)
- **Sector**: The Lab
- **Tags**: AI, 源代码泄露, Claude, Agent, 神经科学
- **Credibility**: unverified
- **Published**: 2026-04-07 02:59:36
- **ID**: 52288
- **URL**: https://whisperx.ai/en/intel/52288