今日,Deepseek 宣布,其全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。
《科创板日报》获悉,昇腾超节点系列产品全面支持,本次通过双方芯模技术紧密协同,实现昇腾超节点全系列产品支持 DeepSeekV4 系列模型。
DeepSeek-V4 模型按大小分为 Deepseek-V4-Pro(专家模式)和 Deepseek-V4-Flash(快速模式)两个版本,均拥有百万字超长上下文,且同时支持非思考模式与思考模式。

相比 DeepSeek-V4-Pro,DeepSeek-V4-Flash 在世界知识储备方面稍逊一筹,但展现出了接近的推理能力。而由于模型参数和激活更小,相较之下 V4-Flash 能够提供更加快捷、经济的 API 服务。
据官方介绍,DeepSeek-V4 预览版具备两大亮点——
Agent 能力大幅提高:相比前代模型,DeepSeek-V4-Pro 的 Agent 能力显著增强。在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。下图为 V4-Pro 在某 Agent 框架下生成的 PPT 内页示例:


DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。

目前,DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI Chat Completions 接口与 Anthropic 接口。两版本价格如下:

