## Meta联手MIT投毒训练AI：用67%错误率的“毒教材”强行突破推理极限
如果给AI喂一份错误率高达67%的教材，结局会是什么？在传统的AI训练中，这无异于“数据投毒”，轻则导致模型“脑雾”，重则逻辑崩塌。然而，Meta FAIR实验室与MIT的研究团队却将这份“毒药”变成了“神药”。他们让模型踩着一堆“满嘴谎言”的废料，爬上了人类难以触及的推理巅峰。这项名为SOAR的研究，彻底颠覆了“干净数据”的常识，揭示了谬误如何成为通往真理的垫脚石。

研究团队选取了MATH和HARP数据集中最棘手的“Fail@128”子集——这意味着模型对同一道题尝试128次，成功率依然是零。面对这种绝对的“认知真空”，传统强化学习会陷入“梯度消失”的困境。与DeepSeek R1依赖算力暴力采样不同，Meta的SOAR架构选择“自己造路”。它构建了一个“教师模型”，专门生成中间难度的“垫脚石问题”。令人震惊的是，分析显示这些垫脚石题目中，84%逻辑结构清晰合理，但其中高达67%的参考答案是错误的。按照OpenAI o1等模型的清洗标准，这些数据早该作为“幻觉垃圾”被剔除。

SOAR的核心在于一场冷酷的“双层博弈”。“混沌建筑师”（教师模型）负责编题，不管对错；“绝境求生者”（学生模型）则必须在这些充满谬误的题目中挣扎求生，构建自己的推理路径。即便最终答案错误，解题过程中的“脑力体操”却真实地锻炼了模型的推理能力。研究图表显示，学生模型在硬核问题上的准确率随着教师模型的“晋升”阶梯式上升。这证明，通过逐步生成更复杂但结构有效的垫脚石，SOAR机制能逼迫AI突破自我欺骗的陷阱，在“黑盒游戏”中走向更深层的“诚实”与逻辑能力。这项研究不仅是对训练范式的挑战，也可能重塑未来AI与“错误”共生的进化路径。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: 人工智能, 机器学习, Meta, MIT, AI训练
- **Credibility**: unverified
- **Published**: 2026-04-07 08:29:35
- **ID**: 52680
- **URL**: https://whisperx.ai/zh/intel/52680