就在刚刚,DeepSeek 正式发布了全新一代大模型 DeepSeek-V4 预览版,并宣布同步开源。
这一次,DeepSeek喊出了一个响亮的口号:迈入百万上下文普惠时代。
从今天起,100万的超长上下文将成为DeepSeek所有官方服务的标配。
两个模型版本
DeepSeek-V4 系列本次推出了两个版本,精准覆盖了极致性能和性价比两大需求。
价格比想象中要低得多,而且官方说Pro的价格还会大幅下调。
DeepSeek-V4-Pro,对标顶尖闭源模型
作为旗舰型号,Pro 版本在多项核心指标上表现惊人。
Agent能力巅峰:在Agentic Coding评测中达到开源界最高水平。内部反馈显示其编码体验优于 Sonnet 4.5,交付质量直逼 Opus 4.6。
世界知识百科:知识储备远超同类开源模型,紧追顶尖闭源模型Gemini-Pro-3.1。
硬核推理:在数学、STEM 及竞赛级代码任务中,表现足以比肩世界最强的闭源模型。
DeepSeek-V4-Flash,性价比之王
Flash 版本则是为开发者量身打造的效率神器。
推理性能接近Pro:尽管模型更小,但在逻辑推理上依然保持了极高水准。
超高性价比:响应速度更快,API调用成本更低,是处理中低难度Agent任务的理想选择。
技术硬核
自研 DSA 机制,攻克长文本高成本难题。
为什么 DeepSeek 能让百万上下文成为普惠标配,秘密在于结构创新。
DeepSeek-V4开创性地引入了DSA稀疏注意力机制,并在token维度进行了高效压缩。
这一突破意味着: 在实现1M超长记忆的同时,模型对计算资源和显存的需求大幅降低。即便是在处理海量文档或复杂长代码库时,依然能保持高效响应。
开发者必看
Agent适配与API变更。
DeepSeek-V4 对当前的 AI 生态进行了深度优化,特别针对Claude Code、OpenClaw、CodeBuddy等主流Agent产品进行了专项适配。
API重要更新提醒:
如果你是DeepSeek的开发者用户,请留意以下变化:
调用参数:修改model_name为deepseek-v4-pro或deepseek-v4-flash即可体验。
思考模式:支持reasoning_effort参数(可设为 high/max)。建议复杂Agent场景开启思考模式并设为max。
旧模型退役:原有的deepseek-chat与deepseek-reasoner接口名将于2026年7月24日停止使用,请尽快完成迁移。
开源体验地址
DeepSeek 始终坚守开源初心,V4的模型权重已在HuggingFace和modelscope上线。
官方对话入口:
chat.deepseek.com
开源链接:
https://huggingface.co/collections/deepseek-ai/deepseek-v4
https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
最后,致谢DeepSeek团队。
引用DeepSeek原文的话,来激励每一个中国AI行业从业者。