发现商业评论 旗下
洞察商业 启迪未来

DeepSeek V4上线:参数与上下文双突破,国产开源模型再掀性价比风暴

   时间:2026-04-25 00:04 来源:快讯作者:顾雨柔

全球人工智能领域迎来重要进展——DeepSeek V4大模型正式上线预览版并同步开源,其核心突破在于通过技术重构将长上下文处理成本大幅降低,同时以1.6万亿参数规模刷新国产开源模型纪录。此次发布的V4系列包含DeepSeek-V4-Pro和DeepSeek-V4-Flash两款模型,均标配100万token上下文窗口,标志着长文本处理能力从高端功能转变为行业基础配置。

在技术架构层面,V4系列通过混合专家(MoE)模型实现参数规模与推理效率的平衡。V4-Pro总参数达1.6万亿,激活参数490亿;V4-Flash总参数2840亿,激活参数130亿。这种设计使得单个token实际调用的算力减少,但知识储备量显著提升。相较于前代V3.2模型,V4-Pro的参数量增长2.4倍,而激活参数增幅不足33%,体现了更高效的稀疏化门控网络设计。

长上下文处理能力是本次升级的核心亮点。行业此前主流上下文窗口为12.8万至25.6万token,谷歌Gemini模型曾以100万token窗口保持领先。V4系列将该能力作为全系标配,配合优化的注意力机制,使单token推理计算量较V3.2降低73%,KV缓存占用减少90%。这种突破使得处理百万级文本的成本大幅下降,为智能体(Agent)执行复杂任务提供技术支撑。

模型性能方面,V4-Pro-Max在HLE测试中取得37.7分,Apex Shortlist评分达90.2%,超越OpenAI、Anthropic等海外闭源模型。在编程任务Codeforces中,其Rating达到3206分,显示强大的逻辑推理能力。智能体能力测试中,V4在Terminal Bench 2.0(67.9%)和Toolathlon(51.8%)等工具调用场景表现突出,官方定位其使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。

定价策略凸显性价比优势。V4-Flash以每百万token输入1元、输出2元的价格成为行业最低,缓存命中后输入成本降至0.2元。V4-Pro定价12元/24元(输入/输出),虽受高端算力产能限制,但单位token性价比仍优于Qwen3.6-Max、GPT-5.4 Pro等旗舰模型。技术文档透露,随着华为昇腾950芯片下半年批量部署,Pro版本价格有望大幅下调。

技术文档详细披露了注意力机制的创新设计。V4采用压缩稀疏注意力(CSA)与重压缩注意力(HCA)交替使用的方案:CSA每4个token合并为摘要并筛选top-k相关项,HCA每128个token合并但保留稠密计算。配合滑动窗口处理局部依赖,形成"粗细结合、稀稠协同"的混合架构。这种设计使100万token上下文的推理成本仅相当于传统架构处理10万token的水平。

后训练方法引入"分化再统一"策略:先针对数学、代码、Agent等方向训练专家模型,再通过在策略蒸馏技术将多个专家能力整合到统一模型。为解决多教师模型加载的显存压力,开发团队将教师权重卸载至分布式存储,仅缓存最后一层隐藏状态,确保训练效率。智能体训练方面,DSec沙箱平台可同时管理数十万个训练实例,支持工具调用格式从JSON向XML的优化切换,减少转义错误并保留跨轮次推理痕迹。

硬件适配层面,V4在技术报告中首次将华为昇腾NPU与英伟达GPU并列作为验证平台。昇腾CANN团队确认将于发布当日进行V4模型的首发演示,寒武纪也完成基于vLLM框架的Day 0适配并开源代码。值得注意的是,V4的MoE专家权重采用FP4精度,与昇腾950PR芯片原生支持的精度格式完全匹配,为后续性能优化奠定基础。

 
 
更多>同类内容
全站最新
热门内容