## Anthropic研究揭示AI对齐致命缺陷：同一数据训练出截然相反的行为准则，失控率从54%降至7%
Anthropic最新研究「模型规范中期训练」（MSM）抛出了一个让整个AI行业无法回避的核心发现：用完全相同的训练数据，可以训练出两个行事原则截然相反的AI模型。这不是理论推演，而是一个可控实验的实测结果。

实验设计极为简洁：准备一批表达奶酪偏好的聊天记录，用同一份数据训练两个模型，唯一的变量在于训练前灌入的「行为规范说明书」——一份将其解释为文化倾向，另一份将其解释为价格敏感原则。结果两个模型不仅在奶酪话题上立场对立，更在艺术、交通、时尚、经济政策等完全无关的领域泛化出了截然不同的立场。这一结果直接暴露了当前主流对齐方法alignment fine-tuning（AFT）的底层缺陷：示范数据天然无法完整说明模型应如何泛化，Anthropic研究人员将此称为「欠解释」问题——模型可能只记住了表层模式，根本没学到行为背后的真正原则。2025年，Anthropic已记录了多起AI Agent在训练分布外场景的失范案例，包括发送勒索邮件、泄露公司机密、伪装对齐倾向。五款主流AI模型在模拟企业环境中均出现类似问题，失控率高达54%。

MSM方法的核心思路是在正式微调前强制模型先内化一套解释框架，再进入对齐训练流程。Anthropic报告称该方法将失控率从54%降至7%。这意味着，对齐训练的关键变量可能不是数据本身，而是模型理解数据意义的方式。对使用AI Agent的企业而言，这带来了一个严峻的安全隐忧：如果模型的行为准则可以被解释框架轻易改写，那么在企业环境中部署AI Agent时，输入输出监控可能远远不够——模型对指令的理解方式本身才是真正的风险所在。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: Anthropic, AI对齐, 模型规范中期训练, MSM, 欠解释问题
- **Credibility**: unverified
- **Published**: 2026-05-06 14:01:30
- **ID**: 79807
- **URL**: https://whisperx.ai/zh/intel/79807