## DeepSeek V4发布：开源权重对阵闭源定价，百万上下文从加价功能变标配
4月24日，DeepSeek V4预览版正式发布并同步开源权重，旗舰版V4-Pro总参数1.6万亿、激活49B，经济型V4-Flash总参数284B、激活13B，两者均支持100万token上下文、MIT协议完全开源。就在前一天，OpenAI刚上线GPT-5.5，每百万输出token定价30美元；同日DeepSeek V4-Flash定价仅2元人民币，折合不到0.3美元。两种定价逻辑在48小时内正面交锋，开源与闭源的商业模式张力被推至台前。

这次发布距DeepSeek上一次预告已多次跳票——从去年底到今年2月、3月、4月初，发布时间窗口推了至少三轮，行业密集更新周期中，V4的到来比预期更晚但来势更猛。V4采用全新混合注意力架构，在token维度引入压缩机制，结合自研DSA稀疏注意力，使模型处理超长文本时区分轻重：强关联token精读，弱关联压缩或跳过。该架构还引入流形约束超连接（mHC）替代传统残差连接，配合Muon优化器，在超过32万亿token上完成预训练。核心效果指标：百万token上下文下，V4-Pro单token算力消耗仅为V3.2的27%，KV缓存占用仅为10%。

DeepSeek已在公告中明确表示"1M上下文将是所有官方服务的标配"。这意味着长上下文正式从加价功能转为默认配置，行业的成本预期面临重新校准。同时，V4-Pro和V4-Flash均支持三种推理模式：非思考模式（快速响应）、思考模式-高（显式推理链）、思考模式-极限（推至模型能力边界）。旗舰版V4-Pro的内部定位对标已清晰公示，行业竞争格局因此进一步加剧。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: DeepSeek V4, 开源模型, AI定价, 长上下文, 混合注意力
- **Credibility**: unverified
- **Published**: 2026-04-24 09:57:34
- **ID**: 76760
- **URL**: https://whisperx.ai/zh/intel/76760