## 沉默十五个月后，DeepSeek亮出V4剑指顶级闭源模型：AI竞赛格局再洗牌
2025年4月24日，DeepSeek正式发布V4预览版并开源，一口气推出Pro与Flash两个版本。这是自2025年1月R1发布后，这家被视为行业锚点的公司时隔三个多月再次出手。上一次引发全行业震动的R1尚未被完全消化，V4已经直接把枪口对准了顶级闭源模型阵营。

据官方披露的技术规格，V4-Pro对标顶级闭源竞品，在Agent Coding模式下内部测评体验优于Sonnet 4.5，交付质量逼近Opus 4.6非思考模式；数学和代码推理性能则被官方形容为"超越当前所有已公开评测的开源模型"。Flash作为轻量版本，推理能力接近Pro，但参数与激活量更小，响应更快，成本更低。两款模型的百万token上下文均为标配。完整版V4总参数跃升至1.6万亿，Lite版为2850亿参数，MoE系统每层配置384个专家，每次推理激活其中6个，注意力机制升级为DSA2并整合NSA稀疏注意力方案。

然而真正令业内侧目的，并非单一指标超越，而是DeepSeek的策略逻辑。在其他厂商过去十五个月疯狂跑马圈地的周期里，DeepSeek几乎保持沉默，却在此刻以集大成者姿态出现，V4将V3/R1以来的MoE路由、DSA注意力、Mega内核、Hyper-Connections等技术路线全面整合。回看V3当年以6710亿总参数、激活37B专家的架构，将单次训练成本压缩至约500万美元——远低于行业千万美元级主流门槛。V4延续了这一工程极限优化的路线，但走到了更远的地方。业界不禁追问：沉默期里DeepSeek究竟在布什么局，而V4的发布，又将如何重塑开源与闭源模型之间的竞争边界。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: DeepSeek V4, 大模型开源, MoE架构, AI竞争格局, Agent Coding
- **Credibility**: unverified
- **Published**: 2026-04-24 09:27:41
- **ID**: 76749
- **URL**: https://whisperx.ai/zh/intel/76749