zbo智博1919com

新闻中心 新闻中心

DeepSeek V4预览版颁布!!!大幅降低对推算和显存的需要,,,Agent能力实现国内和开源当先

全新系列模型 DeepSeek-V4 的

作者::黄靖容
颁布功夫::2026-05-14 19:17:47
阅读量::941

DeepSeek V4预览版颁布!!!大幅降低对推算和显存的需要,,,Agent能力实现国内和开源当先

全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。

4月24日,,,中国人为智能公司DeepSeek再度向开源社区投下重磅,,,其全新系列模型DeepSeek-V4预览版正式颁布并同步开源,,,在Agent能力、、世界知识与推理机能三大维度宣称达到国内及开源领域当先水平。

DeepSeek-V4分为Pro与Flash两个版本,,,均支持百万(1M)token超长高低文,,,克日起可通过官网chat.deepseek.com及官方App直接使用。

API服务同步上线,,,开发者将model参数批改为deepseek-v4-pro或deepseek-v4-flash即可挪用,,,接口兼容OpenAI ChatCompletions与Anthropic两套尺度。

DeepSeek-V4-Pro::机能比肩顶级闭源模型

Agent 能力大幅提高::相比前代模型,,,DeepSeek-V4-Pro 的 Agent 能力显著加强。在 Agentic Coding 评测中,,,V4-Pro 已达到当前开源模型最佳水平,,,并在其他 Agent 有关评测中同样阐发优异。目前 DeepSeek-V4 已成为公司内部员工使用的 Agentic Coding 模型,,,据评测反馈使用履历优于 Sonnet 4.5,,,交付质量靠近 Opus 4.6 非思虑模式,,,但仍与 Opus 4.6 思虑模式存在肯定差距。

丰硕的世界知识::DeepSeek-V4-Pro 在世界知识测评中,,,大幅当先其他开源模型,,,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1。

世界顶级推理机能::在数学、、STEM、、较量型代码的测评中,,,DeepSeek-V4-Pro 超过当前所有已公开评测的开源模型,,,获得了比肩世界顶级闭源模型的优异成就。

DeepSeek-V4-Flash::更快捷高效的经济之选

相比 DeepSeek-V4-Pro,,,DeepSeek-V4-Flash 在世界知识储蓄方面稍逊一筹,,,但展示出了靠近的推理能力。而由于模型参数和激活更小,,,相较之下 V4-Flash 可能提供越发快捷、、经济的 API 服务。

在 Agent 测评中,,,DeepSeek-V4-Flash 在单一工作上与 DeepSeek-V4-Pro 旗鼓相当,,,但在高难度工作上仍有差距。

结构创新和超高高低文效能

DeepSeek-V4 开创了一种全新确把稳力机制,,,在 token 维度进行压缩,,,结合 DSA 稀少把稳力(DeepSeek Sparse Attention),,,实现了全球当先的长高低文能力,,,并且相比于传统步骤大幅降低了对推算和显存的需要。从此刻起头,,,1M(一百万)高低文将是 DeepSeek 所有官方服务的标配。

Agent 能力专项优化

DeepSeek-V4 针对 Claude Code 、、OpenClaw、、OpenCode、、CodeBuddy 等主流的 Agent 产品进行了适配和优化,,,在代码工作、、文档天生工作等方面阐发均有提升。下图为 V4-Pro 在某 Agent 框架下天生的 PPT 内页示例::

目前,,,DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,,,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。接见新模型时,,,base_url 不变, model 参数必要改为 deepseek-v4-pro 或 deepseek-v4-flash。

V4-Pro 与 V4-Flash 最大高低文长度为 1M均同时支持非思虑模式思虑模式,,,其中思虑模式支持 reasoning_effort 参数设置思虑强度(high/max)。对于复杂的 Agent 场景建议使用思虑模式,,,并设置强度为 max。

 

文章点评

未查问到任何数据!!!

颁发评论

◎欢迎参加会商,,,请在这里颁发您的见解、、互换您的概念。

最新文章

热点文章

随机推荐

【网站地图】