Context Engineering是一门设计和构建动态系统的学科,旨在为LLM提供适时、适格、适切的信息和工具,以高效完成任务。它与Prompt Engineering的区别在于,后者关注提示词编写,前者则侧重完整的信息供给系统构建。Context Engineering是构建AI Agent的关键,其重要性甚至超过Prompt Engineering。上下文包含System Prompt、User Prompt、Short-term Memory、Long-term Memory、Retrieved Information和Available Tools等元素。Context Engineering的失效模式包括Context Poisoning、Context Distraction、Context Confusion和Context Clash。通过Write、Select、Compress和Isolate四大策略,可以有效管理上下文。实战案例表明,优秀的Context Engineering是实现高效AI Agent的关键。Context Engineering与Harness Engineering相互补充,前者关注信息质量,后者关注执行可靠性。初学者应从审视System Prompt、检查信息完整性、控制上下文长度、格式化数据、使用工具补充知识等方面入手,提升AI任务构建能力。
一、什么是 Context Engineering?
一句话定义
Context Engineering(上下文工程)
是一门设计和构建动态系统的学科,目的是在正确的时机,以正确的格式,把正确的信息和工具提供给 LLM,让它能够完成任务。
—— LangChain / Tobi Lutke(Shopify CEO)
和 Prompt Engineering 的区别
| 维度 | Prompt Engineering | Context Engineering |
| 关注点 | 如何写出更好的提示词 | 如何构建完整的信息供给系统 |
| 范围 | 一个字符串 | 一个动态系统 |
| 静态/动态 | 静态模板 | 动态生成 |
| 适用场景 | 单次问答 | 复杂 Agent 任务 |
关系:Prompt Engineering 是 Context Engineering 的子集。
二、为什么 Context Engineering 比 Prompt Engineering 更重要?
Agent 失败的真正原因
Andrej Karpathy(前 OpenAI / Tesla AI 负责人)把 LLM 比作新型操作系统:
LLM= CPU(计算单元)
Context Window =RAM(工作内存,有限容量)
Cognition AI(Devin 的开发公司)明确指出:
“Context Engineering 实际上是构建 AI Agent 的工程师的第一要务。”
Agent 失败的两大原因:
模型本身能力不足
没有给模型提供正确的上下文 ←更常见
三、上下文(Context)包含哪些内容?
上下文不只是你发的那句话,而是模型在生成回复前能看到的一切:
| 上下文类型 | 说明 | 示例 |
| System Prompt(指令) | 定义模型行为的初始指令 | “你是一个专业的客服助手” |
| User Prompt(用户输入) | 当前用户的问题或任务 | “帮我查一下订单状态” |
| Short-term Memory**(短期记忆)** | 当前对话历史 | 前几轮的问答记录 |
| Long-term Memory(长期记忆) | 跨会话的持久知识 | 用户偏好、历史项目摘要 |
| Retrieved Information(RAG) | 动态检索的外部知识 | 文档、数据库、API 返回结果 |
| Available Tools(工具列表) | 模型可以调用的工具定义 | send_email、check_inventory |
| StructuredOutput(输出格式) | 规定模型输出的格式 | JSON schema、特定模板 |
四、上下文的四种失效模式
Drew Breunig 总结了上下文过长或质量差时的四种失效模式:
| 失效类型 | 说明 |
| Context Poisoning(上下文中毒) | 幻觉内容进入上下文,污染后续推理 |
| Context Distraction(上下文干扰) | 无关内容过多,淹没真正重要的信息 |
| Context Confusion(上下文混淆) | 多余的上下文影响了模型的判断方向 |
| Context Clash(上下文冲突) | 上下文内部存在相互矛盾的信息 |
五、Context Engineering 的四大策略
Lance Martin(LangChain 工程师)把上下文管理方法分为四类:
5.1 Write(写出去)
把信息保存到上下文窗口之外,供后续使用。
Scratchpad(草稿本):
Agent 在执行任务时,把中间结果写到文件或状态对象中
Anthropic 多智能体研究系统:超过 20 万 Token 前,主动把计划写入 Memory 文件
Long-term Memory(长期记忆):
跨会话保存用户偏好、历史经验
ChatGPT、Cursor、Windsurf 都有类似机制
5.2 Select(选进来)
从外部存储中,把当前任务最相关的信息拉进上下文。
RAG(检索增强生成):向量检索,按相关性筛选文档片段
Few-shot 示例选择:根据当前任务,动态选取最相关的示例
记忆检索:从长期记忆中检索与当前任务相关的信息
5.3 Compress(压缩)
减少上下文中的 Token 数量,保留核心信息。
| 方法 | 说明 |
| 对话摘要 | 把历史对话压缩成摘要,替代完整历史 |
| 文档摘要 | 只传关键内容,不传原始全文 |
| Token 裁剪 | 丢弃过时或不重要的历史轮次 |
| 结构化提取 | 把非结构化内容转成结构化数据再传入 |
5.4 Isolate(隔离)
通过子 Agent 或并行处理,把大任务拆分成小上下文。
子 Agent(Subagent):每个子 Agent 只处理任务的一部分,上下文独立且短小
并行处理:多个 Agent 同时处理不同片段,最后汇总结果
沙箱隔离:防止一个任务的上下文污染另一个任务
六、实战示例:Cheap Demo vs. Magical Agent
场景:收到邮件"明天有空一起同步一下吗?",要求 AI 自动回复并安排会议。
Cheap Demo(差的 Agent)
上下文只有:用户发来的邮件内容
回复结果:
“感谢您的消息,明天可以。请问几点方便?”
❌ 问题:不知道日历是否空闲、不了解对方是谁、语气也不对
Magical Agent(好的 Agent)
上下文包含:
日历信息(明天全天都有会议)
与发件人的历史邮件(对方是重要合作伙伴,用轻松语气)
联系人信息
工具:send_invite、send_email
回复结果:
“明天我这边全天都排满了,周四上午有空,你看可以吗?已经发了个邀请,确认一下~”
✅ 结果:准确、自然、可执行
魔法不在于更聪明的模型,而在于更好的上下文。
七、Context Engineering 与 Harness Engineering 的关系
这两个概念容易混淆,它们是不同层次的工程实践:
| 维度 | Context Engineering | Harness Engineering |
| 核心问题 | 给模型喂什么信息? | 如何确保模型执行每个步骤? |
| 关注点 | 信息质量和格式 | 执行可靠性和约束 |
| 主要手段 | RAG、摘要、记忆管理 | Checkpoint、Subagent、文件持久化 |
| 解决的失败 | 信息不足/格式差/上下文过长 | 跳步/偷懒/状态丢失 |
| 关系 | 底层基础 | 上层约束 |
简单记忆:
Context Engineering = 喂什么
Harness Engineering = 怎么执行
八、实用工具推荐
| 工具 | 用途 |
| LangGraph | 可完全控制 Agent 上下文构建流程 |
| LangSmith | 追踪和观测每次 LLM 调用的上下文 |
| Tokalator | VS Code 插件,实时监控 Token 消耗(arXiv:2604.08290) |
| Reflexion | 让 Agent 在每轮后自我反思,生成记忆 |
九、初学者行动清单
从这几件事开始:
✅审视你的 System Prompt:规则是否清晰?有没有矛盾?
✅检查信息完整性:模型需要的信息,你都给了吗?
✅控制上下文长度:超过 4000 Token 的历史对话,考虑摘要压缩
✅格式化你的数据:JSON blob 不如结构化摘要,表格优于流水文字
✅用工具补充知识:模型不知道的事,给它检索工具,而不是硬塞进 Prompt
核心问题自检:
给了当前的上下文,模型有没有可能完成这个任务? 如果答案是"没可能",问题一定在上下文,而不是模型。
最后唠两句
为什么AI大模型成为越来越多程序员转行就业、升职加薪的首选
很简单,这些岗位缺人且高薪
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200% ,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。
那0基础普通人如何学习大模型 ?
深耕科技一线十二载,亲历技术浪潮变迁。我见证那些率先拥抱AI的同行,如何建立起效率与薪资的代际优势。如今,我将积累的大模型面试真题、独家资料、技术报告与实战路线系统整理,分享于此,为你扫清学习困惑,共赴AI时代新程。
我整理出这套 AI 大模型突围资料包【允许白嫖】:
- ✅从入门到精通的全套视频教程
- ✅AI大模型学习路线图(0基础到项目实战仅需90天)
- ✅大模型书籍与技术文档PDF
- ✅各大厂大模型面试题目详解
- ✅640套AI大模型报告合集
- ✅大模型入门实战训练
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
①从入门到精通的全套视频教程
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(0基础到项目实战仅需90天)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
⑤640套AI大模型报告合集
⑥大模型入门实战训练
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓