news 2026/4/19 22:35:59

大模型的三条进化路线:OpenAI、DeepMind、DeepSeek如何重塑AI结构

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型的三条进化路线:OpenAI、DeepMind、DeepSeek如何重塑AI结构

文章指出大模型发展的核心矛盾已从"够不够聪明"转向"有没有稳定的智能结构"。分析了OpenAI(行动能力)、DeepMind(世界理解)和DeepSeek(长期记忆)三条技术路线,提出"电子脑"结构概念:记忆+世界理解+行动能力。技术人应少纠结参数,多理解结构,站在"对的神经系统"上,避免被"旧结构理解新智能"所淘汰。


最近这段时间,我有点不安。不是因为模型又发新版本了。也不是因为参数又翻倍了。而是我在密集读论文、刷访谈、翻内部分享的时候,突然意识到一件事——我们很多人,可能正在用“上一代 AI 的认知”,理解“下一代 AI 的竞争”。

这篇文章我想干一件事:不是给你讲新名词,而是帮你把OpenAI、DeepMind、DeepSeek这三条看似分散的路线,拼成一张完整的结构图。

读完你至少会得到三点:
第一,你会明白现在大模型真正卡在哪
第二,你会看懂为什么大家开始“拆大脑”;
第三,你会知道,作为普通技术人,该站在哪个位置,而不是追哪个版本号

我先抛一个我现在越来越笃定的判断:这一轮 AI 的核心矛盾,已经不是“够不够聪明”,而是“有没有稳定的智能结构”。

这句话我一年前不敢说。现在,我敢。我们先说一个所有人都隐约感觉到、但很少被正面讨论的问题。你有没有发现,现在的大模型,特别像一个——临场发挥型天才。

状态好的时候,像开挂。状态差的时候,你甚至怀疑它是不是在敷衍你。同一道题,换个提示词,结果天差地别;同一个任务,短的能做,长的就开始胡来。

DeepMind 的 Demis Hassabis 给了一个非常准确的词,叫“参差不齐的智能(jagged intelligence)”

这个词我第一次看到的时候,后背是凉的。因为它精准描述了我过去一年踩过的所有坑。

我说个自己的经历。去年我做过一个偏复杂的 Agent 项目,目标很简单:让模型自动拆任务、查资料、生成方案、反思、再执行。

demo 演示时,惊艳。真的,连我自己都被打动了。但上线一周后,问题开始出现:

  • 有时逻辑非常严谨
  • 有时突然漏掉关键约束
  • 有时前后自相矛盾

最要命的是:你很难通过“调参”或者“多喂点提示词”彻底解决。那时候我以为是工程问题。后来我意识到,不是。这是结构问题。

不是模型不努力,是它的大脑结构,本来就不适合干这类活。

理解这一点,你再回头看 OpenAI 最近做的事,就会突然通透。很多人看到 GPT-5.2-Codex,只盯着“代码能力”“安全能力”“更强了”。

但如果你只看到这个,你就看浅了。GPT-5.2-Codex 真正的变化,不是更会写代码,而是开始像一个“能干活的工程师”

什么叫干活?不是补全一行函数。而是:

  • 接收一个模糊需求
  • 拆成多个子任务
  • 在不同阶段调用工具
  • 处理失败
  • 继续推进
  • 最后交付结果

这背后依赖的,不是“更大的模型”,而是Agentic Workflows。说人话就是:模型开始被当成“行动主体”,而不是“聊天工具”。

这里我必须插一句个人暴论。

我现在非常不看好那种:“一个超大模型,包打天下”的路线。

不是说它没用。而是它不可能稳定。你让一个模型,既负责语言理解,又负责世界知识,又负责推理规划,又负责长期记忆,又负责工具调用……

这就像让一个人,一边做手术,一边背百科全书,一边记账,一边指挥施工队。

偶尔能行。长期一定崩。

这也是为什么,DeepMind 把赌注压在World Model上。很多人一听“世界模型”,就觉得很虚。

但 Hassabis 讲得非常直白:如果 AI不能理解世界是如何运作的,它就永远只能在“文本统计”里打转。你让它写方案,它会。你让它解释已有结论,它也会。

但你让它:

  • 做长期规划
  • 理解物理因果
  • 预测真实环境变化

它就开始露馅。视频模型、交互模型,在 DeepMind 眼里,不是内容工具,而是世界模型的胚胎

如果一个模型能生成世界,它至少在某种程度上,理解了世界。

真正让我后背发凉的,是 DeepSeek 最近这一步。说实话,在第一次看到Engram这个设计时,我是愣住的。因为它问了一个非常“反常识”的问题:

为什么一定要把“推理能力”和“知识存储”,硬塞进同一张神经网络里?

我们现在主流的大模型架构,本质是什么?不管你是 Dense 还是 MoE,知识 + 推理,全都揉在 Expert 里。

这带来两个问题:

第一,模型要花大量容量“记住事实”;
第二,早期层被迫做“静态模式重建”,深度被浪费掉。

DeepSeek 的做法,非常干脆。他们说:那我就把“记忆”拆出来

  • MoE:负责动态计算、推理、理解
  • Engram:专门存静态知识,用来查

而且最狠的是——Engram 的检索复杂度是 O(1)。

不是向量检索。不是相似度搜索。是条件索引,一步命中。我用一个特别土的比喻。传统大模型,像一个人:所有知识都靠死记硬背。越聪明,脑子越累。

DeepSeek 这套,更像是:大脑负责思考,书架负责存书。

你问问题,不是先在脑子里翻半天,而是直接知道该去第几排第几本。这带来什么?

第一,推理速度暴涨。因为索引在输入阶段就确定,甚至可以把 Engram 嵌入表放在 CPU 内存里,通过预取拿。

第二,单位参数的推理能力变强。因为主干网络终于不用背百科全书了。

论文里给的数据很克制,但很狠:

  • BBH 推理 +5.0
  • MATH +2.4
  • 代码 +3.0

这不是“多训练点”的提升。这是结构红利

当你把记忆从大脑里拿走,思考反而变得更深了。

说到这里,我想说一段可能会得罪人的话。

我现在回头看自己过去一年做的很多 RAG,其实方向是偏的。

我当时以为:外挂知识 = 外挂记忆。后来发现,不是。那只是“外置搜索”。不是“结构级记忆”。

Engram 这种东西,真正可怕的地方在于:它是模型的一部分,但又不吃模型的算力预算。

这和我们现在堆 RAG、堆工具链,是两个时代的思路。现在,把三条路线拼在一起,你会发现一个非常清晰的轮廓。

OpenAI 在补什么?行动能力(Agent)

DeepMind 在补什么?世界理解(World Model)

DeepSeek 在补什么?长期记忆(Engram)

这三件事,正好组成一个完整的“电子脑”结构:

  • 有记忆
  • 能理解世界
  • 会规划行动

这不是模型升级,这是物种升级。

那问题来了。这跟你我有什么关系?你不是做基础模型的。你也不在实验室。我的答案是:你不用造大脑,但你必须站在“对的神经系统”上。

如果你是工程师:

  • 少纠结参数
  • 多理解结构
  • 盯住 Agent + Memory + Tool 的组合方式

如果你是产品或创业者:

  • 别再想着“一个 Prompt 解决一切”
  • 开始设计长期任务、状态、记忆流

如果你是内容创作者或研究者:

  • 不要只复述发布会
  • 你要解释“为什么结构在变”

最后,我想用一句很个人的话收尾。

未来真正淘汰人的,不是 AI,而是那些始终用“旧结构理解新智能”的人。

每一轮技术革命,淘汰的从来不是“不会用工具的人”,而是看不懂方向的人。我写这篇,不是为了制造焦虑。

恰恰相反。

我是真心觉得,现在这个时间点,对普通技术人来说,反而是一个重新站队、重新理解、重新下注的窗口期

我很好奇你的感受。你最近一次对 AI 产生强烈“不踏实感”,是在哪个场景?是在写代码?做 Agent?还是某个 demo 崩掉的深夜?

如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)





第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 8:09:42

人群仿真软件:Legion_(5).Legion建模工具使用

Legion建模工具使用 1. 建模工具概述 Legion建模工具是Legion软件的核心组成部分之一,用于创建和编辑人群仿真模型。该工具提供了丰富的功能和工具集,使得用户能够高效地构建复杂的仿真环境。建模工具的主要功能包括:几何建模:创建…

作者头像 李华
网站建设 2026/4/18 9:41:14

MyBatis的一级缓存

什么是缓存? 把当前查询出来的数据进行记录,下一次查询相同数据时,从缓存中去取,就不会重新访问数据库了 MyBatis的缓存分为一级缓存和二级缓存 一级缓存默认是开启的 缓存只针对查询功能有效 CacheMapperCacheMapper.xml测试 pac…

作者头像 李华
网站建设 2026/4/17 12:40:48

OpenOCD JTAG协议开发完全指南

OpenOCD JTAG协议开发完全指南 版本: 1.0 日期: 2026年1月 适用范围: RISC-V调试、FPGA开发、嵌入式系统调试 目录 JTAG基础概念 OpenOCD架构 JTAG协议层次 JTAG状态机 IR/DR扫描操作 OpenOCD API详解 RISC-V调试规范 实际应用案例 常见问题排查 JTAG基础概念 什么是JTAG? …

作者头像 李华
网站建设 2026/4/19 3:01:39

Llama 3在哪些领域有实际应用?

1.Llama 3在哪些领域有实际应用?Llama 3 凭借其开源、高性能、可微调、支持长上下文和多语言等优势,已在多个领域展现出广泛的实际应用价值。尽管原生版本对中文支持有限,但通过微调(SFT/LoRA)或结合RAG(检…

作者头像 李华
网站建设 2026/4/19 1:27:33

【Agent从入门到实践】12 记忆模块:Agent如何“记住信息”

文章目录前言一、先搞懂:记忆模块的本质——“信息的存储与调用”二、短期记忆 vs 长期记忆:一张表分清核心区别三、记忆模块的3个关键功能(通俗版拆解)1. 存储:把有用的信息“记下来”2. 检索:需要时“调出…

作者头像 李华