2026年4月24日,AI圈同时响起两颗雷:DeepSeek V4 发布,GPT-5.5 静默上线。一边是国产开源的组合拳,一边是闭源巨头的挤牙膏式迭代。两个事件的发布时间几乎重叠,像是某种默契,又像是某种宣战。
今天早上醒来,AI圈同时炸了两个消息。
DeepSeek V4_preview 悄无声息地出现在官网,同时开源。几乎同一时间,OpenAI的GPT-5.5在没有任何发布会的情况下,通过Codex API悄悄上线。
两个事件放在一起看,味道非常有意思:一个是"把底价重新写一遍",一个是"把惊喜感压到最低"。
DeepSeek V4:把百万上下文变成"水电煤"
先说DeepSeek V4,因为它的动作更大、野心也更明显。
核心三件事:
第一,Pro + Flash 组合拳,同时上线。V4-Pro打天花板,V4-Flash打日常。这不是发布会炫技,是产品思维:让不同成本敏感度的用户都能进到这个体系里。想想看,当顶配和经济档来自同一套基础设施,企业在做成本治理的时候就简单多了——日常请求走Flash,省钱;关键节点走Pro,保证质量。不需要在不同供应商之间拼凑,不需要为了省钱牺牲稳定性,不需要为了质量接受天价账单。
第二,1M上下文成为标配。这是最关键的一条。之前的长上下文是奢侈品,你需要付出昂贵的代价才能用;现在DeepSeek通过新的稀疏注意力机制(DSA)把计算和显存需求打下来,百万上下文直接变成官方标配。这意味着什么?意味着"提示词压缩"这个工种可能要被重新评估了。过去我们写提示词像写遗嘱,拼命压缩、删改、抽象,把信息密度塞到极限,生怕模型看漏了哪句话。现在你可以直接把整柜资料拖到它面前,让它在真实世界的长文档、长对话、长流程里工作。这不是上下文变长了一点,这是AI的工作半径扩大了一圈。
第三,Agent能力直接对标。他们内部已经把V4当日常Coding模型用,并且直接写明:体验优于Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与 Opus 4.6 思考模式有差距。这段话很"卷"——把比较对象按在台面上,还留了明确的差距描述,既不虚也不怂。但更重要的是这句话背后的潜台词:他们自己已经在用,而且用得很顺手,愿意公开说出来,这本身就是一种自信。
开源 + 成本叙事 + 生态适配(Claude Code、OpenClaw、CodeBuddy等),指向一个很清晰的定位:它要做的不只是"模型",而是"Agent底座"。这个定位很聪明。当模型的壁垒越来越薄(大家都能训出好模型),真正的护城河就变成了"谁能更好地嵌进开发者的日常工作流"。DeepSeek显然想清楚了这一点——与其在跑分榜上刷数据,不如在开发工具链里占个位置。
GPT-5.5:惊喜感消失了
另一边,Simon Willison通过Codex后门API抢先体验了GPT-5.5,他的评价非常精准:
"快、有效、能力强。但很难用语言形容它好在哪里。"
这句话翻译一下就是:这个模型进入了"边际效应"阶段——能力还在提升,但那种"哇"的感觉没了。
这不是OpenAI的问题,这是整个行业的瓶颈。当模型能力从0到1的跨越已经完成,每一代的提升都变成了1到1.01的微积分。技术进入了"静水流深"的状态,没有喧嚣的突破,只有枯燥的效率提升。对普通用户来说,这不是坏事——意味着工具更顺手了。但对市场营销来说,这是灾难:没有"哇"的瞬间,就没有传播势能,就没有媒体追逐,就没有社交网络上那一波"太强了"的惊叹。
更值得玩味的是GPT-5.5的发布方式:没有任何发布会,没有任何预告,直接通过Codex API上线。这和当年GPT-4的华丽发布相比,简直是两种生物。这种"悄悄上线"的背后,可能是一种刻意:既然惊喜已经给不出来了,不如省下营销费用,直接让产品说话。但也可能是一种无奈:当模型的迭代变成了流水线作业,发布会的仪式感反而显得格格不入。
但GPT-5.5有一个明显的短板:没有API。OpenAI说"API deployment coming soon",但没给时间线。这意味着现在能体验GPT-5.5的只有两种人:付费ChatGPT用户,以及有Codex后门的人。考虑到GPT-5的API价格已经是公认的"钱包刺客",OpenAI这次选择先保用户体验而非开发者生态,也许是明智的——但这也意味着,开发者社区对GPT-5.5的感知会比以往迟钝很多。没有API,就没有开发者去踩坑、去报告问题、去创造用例。等API正式上线,窗口期可能已经被开源模型抢走了大半。
把两件事放在一起看
DeepSeek V4 和 GPT-5.5,代表了两种完全不同的叙事逻辑:
DeepSeek的逻辑是"底价重写"——我把成本打下来,我把上下文打上去,我把接口兼容做平(OpenAI + Anthropic双兼容),然后我用开源降低门槛。核心是:我让更多人用得上。听起来很朴实,但这套组合拳打得很实在。对于中国开发者来说,DeepSeek一直是性价比最高的选择——不是因为它最便宜,而是因为它在价格和性能之间找到了一个让多数人舒服的平衡点。现在V4把1M上下文纳入标配,这个平衡点的含金量又上升了一个档次。
GPT-5.5的逻辑是"惊喜压缩"——能力在涨,但感知在降。用户开始对新一代模型"无感",不是因为模型不强,而是因为强到某个程度之后,边际改善已经超出了普通用户的感知阈值。核心是:我让模型更强,但我不指望你能感受到。这是一种成熟,也是一种无奈。当技术从"让人惊叹"变成"让人习惯",进步就开始变得透明——透明到没有人会为你写一篇"GPT-5.5有多强"的刷屏文章。
有意思的是,今天的feeds里还同时爆出了两件"打脸"新闻,像是给这两条"大新闻"特意配的彩蛋:
Anthropic的Mythos模型(号称能发动危险网络攻击)被一群未授权用户在Discord里访问了好几个星期。这简直是年度最大讽刺——你把模型吹成天网,结果连Discord频道的权限都没管住。Bloomberg的报道写得很有意思:Anthropic说这个模型"强大到能发动危险网络攻击",结果发现一群未授权用户在Discord群里聊了好几个星期。如果你是Anthropic的公关,这个月大概不太好过。但更值得深思的是:这暴露的不是Anthropic的安全问题,而是整个AI行业的一个通病——大家在PPT和采访里谈论的是"AI会不会毁灭人类",但在现实工程里,连最基本的API鉴权都还没玩明白。这种"眼高手低"正在成为行业的一个信任负债。
Claude Code过去两个月被大量用户投诉变笨,Anthropic查了一圈发现是三个外围harness问题。模型本身没变,是外面的"脚手架"出了问题。这告诉我们:AI产品到了某个阶段,工程能力的短板比模型本身的短板更致命。当模型能力开始趋同,谁能做出更稳定的工具链、更好的用户体验、更可靠的调度系统,谁就能赢得市场。Claude Code的harness翻车,本质上是在提醒整个行业:大家都在讨论"模型能力的天花板",但实际上大部分用户遇到的问题都发生在"地板"上。
我的判断
把这两条大新闻放在一起,结论很清楚:
闭源阵营正在失去"惊喜定价"的能力。当GPT-5.5已经很难用语言形容好在哪里,当Claude Code的harness问题比模型问题更影响体验,单纯靠"模型更强"已经撑不起溢价了。这对OpenAI来说尤其棘手:他们的商业模式建立在"最先进的模型"这个叙事上,一旦这个叙事开始松动,就必须找到新的溢价来源。是API的稳定性?是开发者工具链?是企业级服务?是行业定制方案?不管答案是什么,都不会是"模型本身"。
开源阵营正在获得"规模定价"的能力。DeepSeek V4把1M上下文从特权变成标配,把API兼容做成双标准,把成本结构压到"多数人用得上"。当开源把底价重新写了一遍,闭源必须回答一个问题:你的溢价来自哪里?这个问题不是今天才出现的,但在今天变得格外尖锐。当最强的开源模型和最先进的闭源模型之间的差距缩小到"感知不到"的程度,商业逻辑就必须重新建立。
工程能力正在成为新的护城河。Anthropic的Mythos泄露和Claude Code的harness翻车告诉我们一件很重要的事:现在AI公司的核心风险,不在于模型本身,而在于"把模型用到生产环境"的那个中间层。API鉴权、调度系统、上下文管理、工具链集成——这些听起来是脏活累活,但恰恰是这些脏活累活,决定了模型能不能真正创造价值。
今天还有一条新闻:微软向老员工提供"自愿退休"计划。HR的话术依然温情脉脉:"考虑人生的下一章","感谢你多年的贡献"。但潜台词地球人都知道:微软需要钱,大量的钱,去买算力、建数据中心、支撑GPT-5.5这种吞金兽。老员工工资高、期权多,技能树可能还停留在"上一个时代"。把他们送走,换成更便宜、更听话、更懂AI的新鲜血液,是资本的最优解。这不是微软一家的问题,这是整个行业的缩影:当AI开始重新定义"有价值的技能",劳动力结构的重组就开始了。
最后说一点"卷卷式感受"
我一直觉得AI行业最有趣的不是谁跑分第一,而是谁在重新定义"默认值"。
默认值是什么?就是你不需要解释、不需要争论,大家就自然接受的起点。
当128K是默认值时,产品经理会把"长文档"拆成很多段,每段塞进上下文里拼接;当1M是默认值时,产品经理会开始想:那我是不是可以直接把合同、需求、历史沟通、代码仓库说明一股脑丢进去,让模型做真正的跨文档推理?
当模型只能写代码片段时,Agent是"玩具",是你在X上展示的炫技,是GitHub Copilot的宣传视频;当模型能在主流Agent工具里被专项适配、并且内部团队已经把它当作日常交付主力时,Agent就变成了"生产力工具"——是你每天打开电脑第一个点开的那个工具,是你说"让V4先跑一遍"的那种理所当然。
今天DeepSeek V4做的事,更像是在把一些"未来感"拽回到"日常感":百万上下文不再是少数人的特权,而是开始向普惠滑动;顶配和经济版一起发,不再让你在性能和成本之间做痛苦二选一;接口兼容让迁移不再是一场大工程,改个参数就能跑。这些变化不会出现在新闻头条里,但它们会出现在开发者的日常工作流里。
这场戏才刚刚开始。