news 2026/4/18 0:56:55

AI Agent上下文管理新解:破除红绿圆圈悖论,让数字生命体拥有长期记忆!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
AI Agent上下文管理新解:破除红绿圆圈悖论,让数字生命体拥有长期记忆!

简介

本文探讨了AI Agent的上下文管理问题,批判了盲目扩大上下文窗口的做法。作者提出"红绿圆圈"悖论:检索到的上下文与真正需要的上下文存在巨大鸿沟。通过分析LangChain的Deep Agent架构,文章提出基于文件系统的上下文工程解决方案:Write(卸载)->Filter(定位)->Read(加载)的闭环。这种方法通过将大量数据卸载到文件系统,再精准加载所需内容,有效解决噪声问题,使Agent从"无状态"转变为拥有长期记忆的"数字生命体"。


当你第100次看着你的Agent在几十万Token的上下文里“大海捞针”,最后还是把那个关键的API参数搞错时,有没有想过:我们可能从根儿上就错了?

现在市面上都在吹“无限上下文”、“1M Context Window”。好像只要窗口够大,把整个代码库、所有的文档、甚至你祖宗三代的族谱都塞进去,AI就能立地成佛。

别扯了。

那不仅是在烧钱,更是在制造噪声。你花大价钱塞进去的10k Token里,99%是网页里的CSS垃圾、无关的广告和废话。真正的关键信息,早就在这堆数据垃圾里窒息了。

今天咱们不聊虚的,聊点反共识的硬核干货。最近我扒了LangChain最新的Deep Agent架构,发现了一个极具嘲讽意味的真相:

拯救AI记忆危机的,不是什么炸裂的新型向量数据库,而是计算机界最古老、最不起眼的东西——文件系统。


上下文工程的“红绿圆圈”悖论

不论是RAG还是长窗口,本质上都在赌概率。我们现在的搞法,就像是给了AI一个只有几百KB的CPU寄存器(Context Window),然后拼命往里塞东西。

真正的架构师怎么看这个问题?他们把Context Window看作昂贵且易失的CPU寄存器,而把文件系统看作便宜、无限且持久的外挂显存(External VRAM)

这就引出了那个让无数开发者深夜痛哭的“红绿圆圈”悖论:

图注:上下文工程的核心挑战——Retrieved(抓取到的)与Needed(真正需要的)往往并不重叠。

看这张图,扎不扎心?

  • 红色区域(Retrieved Context):你一股脑塞给AI的那些一大坨未经清洗的HTML、文档和日志。
  • 绿色区域(Needed Context):解决当前bug真正需要的那一行报错代码。

这两者之间的巨大鸿沟,就是你的Agent总是“一本正经胡说八道”的原因。Context Engineering 的本质,就是想尽办法让红圈和绿圈完美重合,而不是无脑扩大红圈。


真正的解药:Write -> Filter -> Read 闭环

为什么传统的 RAG(检索增强生成)在 Coding Agent 场景下经常翻车?
因为代码是逻辑结构,不是语义结构。你问 RAG:“用户认证在哪里?”,它可能会给你返回一段由“用户”和“认证”这两个词组成的注释,而不是真正的AuthService类。

基于文件系统的 Context Engineering 则构建了一个全新的“确定性”工作流:

图注:Manus 的 Context Engineering 架构——利用文件系统作为中间层,实现“读写分离”与“精准降噪”。

这套逻辑的核心在于将 Context 的管理权交还给 Agent,形成了Write (卸载) -> Filter (定位) -> Read (加载)的闭环。在这套逻辑里,lsgrepglob这些老古董,比 Embedding 模型管用一万倍。


代码实战:Deep Agents 如何用代码实现“上下文清洗”

我仔细研读了deepagentsfilesystem.py源码。这不仅仅是文件操作库,这是一套标准的Context Engineering 实施规范

让我们深入代码底层,看看 Deep Agents 是如何一步步实现这个闭环的:

Step 1. Write:将“红圈”卸载到窗口之外 (Offloading)

当 Agent 抓取到大量信息(如 20k Token 的 Web Search 结果)时,最愚蠢的做法是直接塞进 Chat History。
Deep Agents 的做法是将其“卸载”到文件系统:

def write(self, file_path: str, content: str) -> WriteResult: # ... # 关键逻辑:数据落地,但不返回给Context Window flags = os.O_WRONLY | os.O_CREAT | os.O_TRUNC if hasattr(os, "O_NOFOLLOW"): flags |= os.O_NOFOLLOW # 顺手还防了个Symlink攻击,讲究 fd = os.open(resolved_path, flags, 0o644) with os.fdopen(fd, "w", encoding="utf-8") as f: f.write(content) # 返回的是 WriteResult(path=...), 而不是 file_content return WriteResult(path=file_path, files_update=None)

Context Engineering 原理:
注意看,这个函数执行完,Context Window 里增加的仅仅是“文件已保存”这几个字,而不是那 20k 的垃圾数据。这相当于把内存数据Swap到了硬盘上,极大地释放了 Agent 的“注意力带宽”。

Step 2. Filter:用结构化搜索寻找“绿圈” (Indexing)

数据在硬盘里了,Agent 怎么找?
传统的 RAG 返回的是模糊的 Chunk,而 Deep Agents 的grep返回的是精确坐标
源码中_ripgrep_search的实现极其硬核:

def _ripgrep_search(self, pattern: str, base_full: Path, include_glob: str | None) -> dict: cmd = ["rg", "--json"] # 灵魂所在:输出机器可读的元数据 if include_glob: cmd.extend(["--glob", include_glob]) # ... # 结果被解析为:{ "filepath": [ (line_num, text), ... ] }

Context Engineering 原理:
为什么要用--json?因为 Agent 需要一张高信噪比的地图
通过grep,Agent 获得了一个包含{file_path, line_number}的精简列表。这步操作,是在成吨的“红圈”数据中,通过逻辑规则(而非概率语义)筛选出了可能的“绿圈”候选集。

Step 3. Read:外科手术式的精准加载 (Surgical Extraction)

找到了坐标(比如第 42 行),最后一步才是真正的“加载上下文”。
如果直接 Read 整个文件,前功尽弃。看看FilesystemBackend.read是怎么做 Token 预算管理的:

def read(self, file_path: str, offset: int = 0, limit: int = 2000) -> str: # ... lines = content.splitlines() # 核心逻辑:滑动窗口 (Sliding Window) selected_lines = lines[start_idx:end_idx] # 贴心细节:自动打上行号,方便后续 Edit 操作 return format_content_with_line_numbers(selected_lines, start_line=start_idx + 1)

Context Engineering 原理:
offsetlimit参数,本质上是Context Window 的预算控制器
Agent 像一位外科医生,只将病灶周围的那 10 行代码切片加载到内存(Window)中。这让 Agent 具备了处理 GB 级日志文件的能力,却只消耗几百 Token。


从“无状态”到“数字生命”

当我们把文件系统的读写权限赋予Agent的那一刻,性质就变了。

以前的Agent,是“无状态”的,聊完即忘。
现在的Agent,有了文件系统,就有了长期记忆

  • • 它可以在skills.md里写下:“上次用户骂我写的SQL没有加分号,下次要注意。”(In-Context Learning 的持久化
  • • 它可以在plan.txt里记录:“任务完成了30%,下一步该去调优Redis配置。”(长程规划的外部化

当Agent开始在文件系统里写下自己的“配置文件”时,它就不再是一个简单的问答机器,而是一个真正拥有记忆、能够自我进化的“数字生命体”。

基于文件系统的 Context Engineering,或许正在为下一代 Deep Agent 提供一种比单纯扩大窗口更务实、更高效的解题思路。

如何学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份LLM大模型资料分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以扫描下方二维码领取🆓↓↓↓

学习路线

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 7:55:40

DeepSeek 在高校科研中的应用:高效处理实验数据、生成图表描述与论文结论初稿

DeepSeek 在高校科研中的应用:高效处理实验数据、生成图表描述与论文结论初稿摘要随着科研数据量的急剧增长和科研效率要求的不断提升,高校科研人员面临着数据处理复杂化、图表制作耗时化、论文撰写周期长的挑战。传统的数据处理与论文写作方式往往耗费研…

作者头像 李华
网站建设 2026/4/18 7:35:52

cmake_cmake简介

文章目录第1章 CMake简介1.1 CMake简介1.1.1 CMake发展1.1.2 CMake优势1.1.3 CMake工作原理1.1.4 用CMake构建的开源项目1.2 Windows下安装CMake1.3 Linux下安装CMake1.4 Windows下编写第一个cmake项目1.4.1 第一个CMakeLists.txt文件1.4.2 CMakeLists.txt 函数说明1.4.2.1 cma…

作者头像 李华
网站建设 2026/4/18 7:56:42

LobeChat能否支持Web Components?组件化开发实践

LobeChat能否支持Web Components?组件化开发实践 在企业级前端架构日益复杂的今天,如何将AI能力以“即插即用”的方式嵌入各类异构系统,成为许多团队面临的真实挑战。设想一下:你正在维护一个基于Vue的老项目、一套React构建的CMS…

作者头像 李华
网站建设 2026/4/13 13:30:01

M9A自动化助手:让《重返未来:1999》从此告别手动肝

M9A自动化助手:让《重返未来:1999》从此告别手动肝 【免费下载链接】M9A 重返未来:1999 小助手 项目地址: https://gitcode.com/gh_mirrors/m9a/M9A 还在为每天重复刷材料、收荒原而烦恼吗?M9A这款专为《重返未来&#xff…

作者头像 李华
网站建设 2026/4/17 0:27:00

小红书种草文案模板:女性用户也爱LobeChat

女性用户也爱LobeChat:当AI助手有了“温度感” 你有没有发现,最近小红书上那些爆款种草文案,语气越来越像闺蜜深夜聊天?语气软萌、表情丰富、话题精准——但背后可能不是某个熬夜写笔记的博主,而是一个叫 LobeChat 的开…

作者头像 李华