## DeepSeek V4开源冲击波：百万上下文标配入场，闭源定价体系遭遇硬核拆解
4月24日，DeepSeek V4预览版正式发布并同步开源权重，两个版本——旗舰V4-PRO（总参数1.6万亿，激活49B）与经济型V4-Flash（总参数284B，激活13B）——均支持100万token上下文，MIT协议完全开源。就在前一天，OpenAI刚上线GPT-5.5，每百万输出token定价30美元；同日DeepSeek V4-Flash的输出定价仅为2元人民币，折合不到0.3美元。两种定价逻辑在48小时内正面碰撞，开源与闭源的成本预期被重新校准。

V4的到来比行业预期晚了近半年，从去年底到今年2月、3月、4月初经历三次跳票。在此期间，Gemini、Qwen等产品已相继将百万上下文纳入能力清单，V4要回答的核心问题不是"能否做到"，而是"做到之后成本撑不撑得住"。V4给出的答案是全新混合注意力架构：在token维度引入压缩机制，结合自研DSA稀疏注意力，让模型在处理超长文本时区分轻重——强关联token精读，弱关联压缩或跳过。此外，V4还引入流形约束超连接（mHC）替代传统残差连接增强深层信号传播稳定性，并使用Muon优化器提升训练收敛速度。整个模型在超过32万亿token上完成预训练。效果数据直接：百万token上下文设置下，V4-PRO每token算力消耗仅为V3.2的27%，KV缓存占用仅为10%。官方同步宣布"1M上下文将成为DeepSeek所有官方服务的标配"，长上下文正式从"加价功能"转为"默认配置"。

两个版本均支持三种推理模式：非思考模式（快速响应）、思考模式-高（显式推理链）、思考模式-极限（推至模型能力边界），官方建议复杂Agent场景使用极限模式。DeepSeek对V4-PRO的定位指向明确的Agent底座方向，与GPT-5.5发布的时间节点形成战略对位，开源生态与闭源商业之间的Agent底座之争正式拉开序幕。
---
- **Source**: 华尔街见闻 (RSSHub)
- **Sector**: The Lab
- **Tags**: DeepSeek V4, 大模型开源, 百万上下文, Agent底座, 混合注意力架构
- **Credibility**: unverified
- **Published**: 2026-04-24 07:27:33
- **ID**: 76711
- **URL**: https://whisperx.ai/zh/intel/76711