news 2026/4/18 6:25:06

收藏级!Transformer与LLM全面解析:从模型结构到AI Agent,小白程序员入门必看

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
收藏级!Transformer与LLM全面解析:从模型结构到AI Agent,小白程序员入门必看

本文详细拆解Transformer模型的结构演进与核心分类,涵盖GPT、BERT等主流模型的区别与应用场景,深入探讨LLM(大语言模型)在自然语言处理、机器视觉、软件交互三大领域的核心优势与现实局限,拆解视频处理的技术难点及世界模型的核心概念,最后详解AI Agent与MCP协议的作用,重点强调LLM对计算机交互方式的革命性变革,帮小白程序员快速搭建大模型知识框架,是入门大模型的必备学习指南。

1、Transformer模型

1.1 起源与发展

2017 年 Google 在《Attention Is All You Need》中提出了 Transformer 结构用于序列标注,在翻译任务上超过了之前最优秀的循环神经网络模型;与此同时,Fast AI 在《Universal Language Model Fine-tuning for Text Classification》中提出了一种名为 ULMFiT 的迁移学习方法,将在大规模数据上预训练好的 LSTM 模型迁移用于文本分类,只用很少的标注数据就达到了最佳性能。

这些具有开创性的工作促成了两个著名 Transformer 模型的出现:

  • GPT (the Generative Pretrained Transformer);
  • BERT (Bidirectional Encoder Representations from Transformers)。

通过将 Transformer 结构与无监督学习相结合,我们不再需要对每一个任务都从头开始训练模型,并且几乎在所有 NLP 任务上都远远超过先前的最强基准。

GPT 和 BERT 被提出之后,NLP 领域出现了越来越多基于 Transformer 结构的模型,其中比较有名有:

虽然新的 Transformer 模型层出不穷,它们采用不同的预训练目标在不同的数据集上进行训练,但是依然可以按模型结构将它们大致分为三类:

  • 纯 Encoder 模型(例如 BERT)

    又称自编码 (auto-encoding) Transformer 模型;

  • 纯 Decoder 模型(例如 GPT)

    又称自回归 (auto-regressive) Transformer 模型;

  • Encoder-Decoder 模型(例如 BART、T5)

    又称 Seq2Seq (sequence-to-sequence) Transformer 模型。

Transformer 模型本质上都是预训练语言模型,大都采用自监督学习 (Self-supervised learning) 的方式在大量生语料上进行训练,也就是说,训练这些 Transformer 模型完全不需要人工标注数据。

1.2 Transformer 的结构

标准的 Transformer 模型主要由两个模块构成:

  • Encoder(左边):负责理解输入文本,为每个输入构造对应的语义表示(语义特征);
  • Decoder(右边):负责生成输出,使用 Encoder 输出的语义表示结合其他输入来生成目标序列。

这两个模块可以根据任务的需求而单独使用:

  • 纯 Encoder 模型:适用于只需要理解输入语义的任务,例如句子分类、命名实体识别;
  • 纯 Decoder 模型:适用于生成式任务,例如文本生成;
  • Encoder-Decoder 模型或 Seq2Seq 模型:适用于需要基于输入的生成式任务,例如翻译、摘要。

原始的 Transformer 模型结构如下图所示,Encoder 在左,Decoder 在右:

1.3 Transformer 家族

虽然新的 Transformer 模型层出不穷,但是它们依然可以被归纳到以下三种结构中:

1.4 Transformers 库

Transformers 库将目前的 NLP 任务归纳为几下几类:

  • 文本分类:例如情感分析、句子对关系判断等;
  • 对文本中的词语进行分类:例如词性标注 (POS)、命名实体识别 (NER) 等;
  • 文本生成:例如填充预设的模板 (prompt)、预测文本中被遮掩掉 (masked) 的词语;
  • 从文本中抽取答案:例如根据给定的问题从一段文本中抽取出对应的答案;
  • 根据输入文本生成新的句子:例如文本翻译、自动摘要等。

Transformers 库最基础的对象就是pipeline()函数,它封装了预训练模型和对应的前处理和后处理环节。我们只需输入文本,就能得到预期的答案。目前常用的 pipelines 有:

  • feature-extraction

    (获得文本的向量化表示)

  • fill-mask

    (填充被遮盖的词、片段)

  • ner

    (命名实体识别)

  • question-answering

    (自动问答)

  • sentiment-analysis

    (情感分析)

  • summarization

    (自动摘要)

  • text-generation

    (文本生成)

  • translation

    (机器翻译)

  • zero-shot-classification

    (零训练样本分类)

2、语音模型

2.1 语音转文本(Speech2Text)

Speech2Text 模型由 Changhan Wang、Yun Tang、Xutai Ma、Anne Wu、Dmytro Okhonko、Juan Pino 在 fairseq S2T:使用 fairseq 进行快速语音到文本建模 中提出。它是一个基于 Transformer 的 seq2seq(编码器-解码器)模型,专为端到端自动语音识别(ASR)和语音翻译(ST)设计。它使用一个卷积下采样器,将语音输入的长度减少 3/4,然后将其送入编码器。该模型通过标准自回归交叉熵损失进行训练,并自回归地生成文本/翻译。

3、视频处理

3.1 什么是视频处理?

在计算机视觉(CV)和人工智能(AI)的研究领域,视频处理涉及自动分析视频数据,以理解和解释时间与空间特征。视频数据是随时间变化的图像序列,其中的信息在空间和时间上都已数字化。这使我们能够对视频中每一帧的内容进行详细的分析和操作。

得益于深度学习(DL)和人工智能的飞速发展,视频处理在当今技术驱动的世界中变得越来越重要。传统上,深度学习研究主要集中在图像、语音和文本上,但视频数据由于其庞大的规模和复杂性,为研究提供了独特而宝贵的机会。YouTube等平台上每天上传数百万视频,使得视频数据成为一个丰富的资源,推动了人工智能研究并促成了突破性的应用。

3.2 视频处理的应用

  • 监控系统: 视频处理在公共安全、犯罪预防和交通监控中扮演着关键角色。它能够自动检测可疑活动,帮助识别个人,并提高监控系统的效率。
  • 自动驾驶: 在自动驾驶领域,视频处理对于导航、障碍物检测和决策过程至关重要。它使自动驾驶汽车能够理解周围环境,识别路标,并对不断变化的环境做出反应,从而确保安全高效的运输。
  • 医疗保健: 视频处理在医疗保健领域具有重要应用,包括医学诊断、手术和患者监测。它有助于分析医学图像,在外科手术过程中提供实时反馈,并持续监测患者以检测任何异常或紧急情况。

3.3 视频处理中的挑战

  • 计算需求: 实时视频分析需要大量的处理能力,这在开发和部署高效视频处理系统时构成了重大挑战。高性能计算资源对于满足这些需求至关重要。
  • 存储要求: 高分辨率视频会产生大量数据,导致存储挑战。高效的数据压缩和管理技术对于处理海量视频数据是必需的。
  • 隐私和伦理问题: 视频处理,尤其是在监控和医疗保健领域,涉及处理敏感信息。确保隐私和解决与视频数据滥用相关的伦理问题是必须仔细管理的CROCIAL考虑因素。

3.4 视频处理任务

视频处理是人工智能和计算机视觉中一个动态且至关重要的领域,它提供了众多应用并带来了独特的挑战。随着深度学习的进步和视频数据可用性的增加,其在现代技术中的重要性持续增长。在接下来的部分中,我们将更深入地探讨深度学习在视频处理中的应用。你将探索最先进的模型,包括3D CNNs和Transformer。

此外,我们将涵盖各种任务,如对象跟踪、动作识别、视频稳定、字幕生成、摘要和背景减除。这些主题将使你全面了解深度学习模型如何应用于不同的视频处理挑战和应用程序。

3.5 视频 Vision Transformer (ViViT)

摘自论文的摘要如下

我们提出了纯 Transformer 视频分类模型,借鉴了此类模型在图像分类中的最新成功经验。我们的模型从输入视频中提取时空标记,然后通过一系列 Transformer 层进行编码。为了处理视频中遇到的长序列标记,我们提出了几种高效的模型变体,它们分解了输入的空间和时间维度。尽管基于 Transformer 的模型只有在可用大量训练数据集时才有效,但我们展示了如何在训练过程中有效正则化模型并利用预训练图像模型,从而能够在相对较小的数据集上进行训练。我们进行了彻底的消融研究,并在 Kinetics 400 和 600、Epic Kitchens、Something-Something v2 和 Moments in Time 等多个视频分类基准测试中取得了最先进的结果,超越了基于深度 3D 卷积网络的现有方法。为了促进进一步研究,我们在 https://github.com/google-research/scenic 发布了代码。

4、LLM大语言模型的短板

4.1 大语言模型

除了优化模型结构,研究者发现扩大模型规模也可以提高性能。在保持模型结构以及预训练任务基本不变的情况下,仅仅通过扩大模型规模就可以显著增强模型能力,尤其当规模达到一定程度时,模型甚至展现出了能够解决未见过复杂问题的涌现(Emergent Abilities)能力。例如 175B 规模的 GPT-3 模型只需要在输入中给出几个示例,就能通过上下文学习(In-context Learning)完成各种小样本(Few-Shot)任务,而这是 1.5B 规模的 GPT-2 模型无法做到的。

近年来发布的一些大语言模型(10B 规模以上)

在规模扩展定律(Scaling Laws)被证明对语言模型有效之后,研究者基于 Transformer 结构不断加深模型深度,构建出了许多大语言模型,如图所示。

一个标志性的事件是 2022 年 11 月 30 日 OpenAI 公司发布了面向普通消费者的 ChatGPT 模型(Chat Generative Pre-trained Transformer),它能够记住先前的聊天内容真正像人类一样交流,甚至能撰写诗歌、论文、文案、代码等。发布后,ChatGPT 模型引起了巨大轰动,上线短短 5 天注册用户数就超过 100 万。2023 年一月末,ChatGPT 活跃用户数量已经突破 1 亿,成为史上增长最快的消费者应用。

4.2 为什么视频模型没有相同的效果

语音与文字都属于自然语言的的范畴,都符合统计学原理,并遵循一定的概率分布。通过学习这个概率分布,计算机就算没有理解文字或音频的含义,但是还是可以精准地预测下一个词是什么。

但是视频的处理要比语音和文字复杂的多,虽然深度学习可以精确的标记出画面的哪些区域是花,草,树木,行人,道路等等,但是它因为不了解物理世界的运行逻辑,无法真正理解画面的含义,所以AI生成的视频会有众多的瑕疵,比如:手臂会穿越身体;人会漂浮在草丛中等等。

世界本身是不可预测的,模型却试图填补每一块缺失的信息。

4.3 世界模型

强化学习之父Richard Sutton老爷子加入了Yann LeCun行列,认为当前的LLM路线行不通,不可能通向AGI

图灵奖获得者Richard Sutton,强化学习之父最新采访,认为当前热门的大语言模型是一条死胡同。他的核心观点是,LLMs 的架构从根本上缺乏从实际互动(on-the-job)中持续学习的能力。无论我们如何扩大其规模,它们本质上仍然是在模仿人类数据,而不是通过与世界直接互动来理解世界并实现目标

Sutton 预言,未来将出现一种新的 AI 架构,它能够像人类和所有动物一样,在与环境的持续互动中实时学习,无需经历独立的“训练阶段”。这种基于经验的、持续学习的新范式,一旦实现,将使我们当前依赖大规模静态数据集训练 LLMs 的方法变得过时,权力向更高级智能形式的转移是必然趋势。

世界模型与传统AI范式(如监督学习、强化学习)的根本区别在于其从被动响应到主动预测的转变。传统的监督学习模型,其核心任务是学习一个从输入到输出的映射函数,例如图像分类或语音识别。这些模型在处理一个输入时,并不会考虑这个输入在时间序列上的前后关系,也不会预测未来的状态。它们只是根据训练数据中学到的模式,对当前的输入做出一个判断。而世界模型则不同,它关注的是时间序列上的动态变化,致力于理解“世界为什么会这样变化”。

5、AI Agent

5.1 人类与AI协同的三种模式

5.2 MCP协议

MCP 可以看作是 AI 应用程序的 “USB-C端口”。就像 USB-C 为连接设备与各种外设提供了标准化方式,MCP为 AI 模型连接不同数据源和工具提供了标准化方法。

通俗来讲,MCP让AI不再局限于“聊天“,而是长出“手”和“脚”,真正具备动手查询,汇报,执行等能力。彻底改变人与软件的交互方式,不用学习应用软件的复杂操作,一个简单的指令,就可以让计算机完成指定的工作。

6、总结

经过上述知识,我们可以了解到LLM大语言模型在以下方面可以达到甚至超越人类:

1.自然语言处理:大模型在文本分类,词性标注,命名实体识别,文本生成,抽取答案,文本翻译、自动摘要等文本(或语音)处理或文本(或语音)生成任务具有卓越表现(例如:聊天,数学,代码,文档分析,风险评估,报告生成等等)

2.机器视觉:如物体识别,对象跟踪、动作识别、图像分析,视频稳定、字幕生成、摘要和背景减除等视频(或图片)处理有超越人类的表现,但是在视频生成有明显的瑕疵。

3.软件交互:使用自然语言去操作软件,无需复杂操作。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 5:08:36

mbedTLS

在医疗设备,尤其是与生命体征监测、影像传输或远程诊断相关的设备中,数据的安全可靠传输与存储是核心要求之一。这就需要在资源受限的嵌入式系统(下位机)上实现有效的加密与安全通信。以下从五个方面来讲解 mbedTLS 在这一领域的应…

作者头像 李华
网站建设 2026/4/18 5:13:08

Linux程序接收到sigpipe信号崩溃处理

针对 SIGPIPE 导致 server 进程崩溃的问题:原因分析: 在 Linux 网络编程中,当向一个已关闭的 socket 发送数据时,内核会向进程发送 SIGPIPE 信号。该信号的默认行为是终止进程。当您刷新 Web 界面时,旧的 WebSocket 连接可能被意外…

作者头像 李华
网站建设 2026/4/17 14:31:36

多媒体教室智能窗帘控制系统的的设计与实现

多媒体教室智能窗帘控制系统的设计与实现 第一章 绪论 传统多媒体教室窗帘多采用手动拉拽或单一电动控制模式,存在操作繁琐、无法根据环境光线自动调节、与教学设备联动性差等问题,易因光线过强导致投影画面模糊,或光线过暗影响学生看板书&…

作者头像 李华
网站建设 2026/4/18 5:09:59

开篇语:从「数字账房」到「决策军师」,你需要一个导航增长的罗盘

各位并肩前行的技术人、创业者与管理者: 过去三季专栏,我们共同完成了三次关键的认知升级: 解构了技术人的商业语法拨开了财务报表的迷雾构筑了创业者的生存账本 感谢你们用实践与反馈,让这条路径越发清晰。但我知道——真正的…

作者头像 李华
网站建设 2026/4/18 5:10:17

用yolov12的框架训练过yolov5的预训练权重之后,再用yolov12的预训练权重训练出现了训练不了的情况,如何解决??

🏆本文收录于 《全栈 Bug 调优(实战版)》 专栏。专栏聚焦真实项目中的各类疑难 Bug,从成因剖析 → 排查路径 → 解决方案 → 预防优化全链路拆解,形成一套可复用、可沉淀的实战知识体系。无论你是初入职场的开发者&…

作者头像 李华
网站建设 2026/4/18 5:12:48

js--12

一、Java GUI 开发基础 1. 核心概念 GUI(图形用户界面)是采用图形化方式展示的操作界面,Java 中主要通过以下两个包实现: AWT:抽象窗口工具包,依赖本地系统,界面风格与系统绑定。Swing&#…

作者头像 李华