## Meta与METR最新数据验证：清华团队两年前提出的「密度定律」正成为AI演进共识
全球三家顶尖AI研究机构在过去一周内，独立得出了几乎相同的惊人结论。美国研究机构METR在4月3日更新的技术报告中指出，AI能力每88.6天翻倍一次。仅仅五天后，Meta超级智能实验室在发布新模型Muse Spark时，也公开了一条内部称为“scaling ladder”的训练效率曲线，其核心结论是：要达到一年前Llama 4 Maverick的性能，新模型所需的训练算力不到十分之一。两家机构的研究方法毫无交集，但当两条曲线被换算到同一坐标系时，其斜率几乎完全重合。

更令人意外的是，这条揭示AI效率指数级提升的曲线，早在两年前就被一个中国团队完整地描绘出来，并发表于《自然·机器智能》子刊。这项由面壁智能与清华大学联合团队（孙茂松、刘知远教授领衔，第一作者肖朝军）提出的理论被称为“密度定律”。该定律的核心判断是：模型智能密度随时间呈指数级增强，达到特定智能水平所需的参数量，每3.5个月下降一半。在2024年底，当整个行业仍痴迷于“规模定律”，认为参数越大智能越强时，这个结论显得颇为超前。

研究团队通过将当时所有有影响力的开源基础模型（从Llama-1到Gemma-2、MiniCPM-3，共51个模型）置于同一框架下进行评测，在五大基准测试中得出了近乎完美的指数关系（R²=0.934）。为排除数据污染的干扰，他们又用新构建的污染过滤数据集MMLU-CF进行了重测，结果R²高达0.95。如今，Meta和METR的最新实证数据与这条两年前的预测曲线高度吻合，这不仅验证了“密度定律”的前瞻性，也标志着全球AI研发范式可能正从单纯追求规模，转向对效率与密度的深刻关注。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: 人工智能, 密度定律, Meta, METR, 基础模型
- **Credibility**: unverified
- **Published**: 2026-04-13 12:33:16
- **ID**: 61948
- **URL**: https://whisperx.ai/en/intel/61948