news 2026/4/18 11:03:53

不用额外缓存!英伟达开源大模型记忆压缩方案,128K上下文提速2.7倍

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
不用额外缓存!英伟达开源大模型记忆压缩方案,128K上下文提速2.7倍

联合Astera研究所、斯坦福大学、UC伯克利、加州大学圣地亚哥分校等机构推出了TTT-E2E方法。

提高大模型记忆这块儿,美国大模型开源王者——英伟达也出招了。

联合Astera研究所、斯坦福大学、UC伯克利、加州大学圣地亚哥分校等机构推出了TTT-E2E方法。

在128K超长文本上处理速度比全注意力模型快2.7倍,处理2M上下文时提速达35倍,性能还不打折。

这项技术与前几天大火的DeepSeek条件记忆模块有所不同。

DeepSeek的Engram模块依赖的是“按需查表”的静态学习路径,而英伟达走的是动态学习的路子,关键在于上下文压缩

通过实时学习将关键内容压缩到自身权重中,让模型在测试阶段依然保持学习状态。

这样既避免了额外缓存的负担,又能精准捕捉长文本中的核心逻辑。

给模型装上记忆压缩包

TTT-E2E并没有依赖复杂特殊架构,反而是基于带滑动窗口注意力的标准Transformer,容易部署。

这个方法的核心思路是将长文本建模从架构设计问题转化为「持续学习」任务

在测试阶段,模型会基于当前读取的上下文进行下一个词预测。

每读取一段文本,就通过梯度下降更新自身参数,通过这种方式持续训练自身,把读到的文本信息动态压缩到权重中,这样就不用额外存储冗余数据。

在训练阶段,团队通过元学习为模型做初始化准备,让模型天生适应「测试时学习」的模式。

把每个训练序列都模拟成测试序列,先在内循环中对其进行测试时训练,再在外循环中优化模型的初始参数,确保初始状态就能快速适配测试时的学习需求,实现了训练与测试的端到端对齐优化。

为了平衡效率与稳定性,TTT-E2E还设计了三项关键优化。

一是采用「迷你批处理+滑动窗口」的组合策略。将测试时的训练数据分成多个迷你批,配合8K大小的滑动窗口注意力,既解决了单token梯度更新易爆炸的问题,又保证模型能记住批内上下文,提升计算并行度;

二是精准更新策略。只更新模型的MLP层(冻结嵌入层、归一化层和注意力层),并且只更新最后1/4的网络块,在减少计算成本的同时避免参数更新混乱;

三是双MLP设计。在需更新的网络块中加入一个静态MLP层,专门存储预训练知识,另一个动态MLP层负责吸收新上下文,来防治模型学新忘旧。

从实验数据来看,TTT-E2E的表现很亮眼。

在3B参数模型的测试中,TTT-E2E在128K上下文长度下的测试损失与全注意力Transformer持平甚至更优,而Mamba 2、Gated DeltaNet等同类模型在长文本场景下性能均出现明显下滑;

在延迟上,它的推理延迟不随上下文长度增加而变化,与RNN类似,在H100显卡上处理128K文本时,速度比全注意力模型快2.7倍。

在解码长序列任务中,经Qwen-8B模型评估,TTT-E2E生成的文本质量稳定,损失值持续低于传统模型。

通过实验结果也可以看出,该方法的推理延迟与上下文长度无关,始终保持恒定,这也意味着无论处理8K还是128K文本,用户都能获得一致的快速响应体验。

不过,TTT-E2E也存在一些小局限。

在大海捞针这类需要精准回忆细节的任务中,它的表现远不如全注意力模型。

这是因为它的核心是压缩记忆,会过滤掉看似无关的细节,而全注意力模型能近乎无损地召回所有信息。

另一方面,训练阶段的元学习需要计算梯度的梯度,目前实现比标准预训练要慢。

目前,TTT-E2E的代码和相关论文已完全开源。

这项研究的项目总负责人是斯坦福的博士后研究员Yu Sun,他同时是该研究的核心贡献者。

他研究的总体目标是让人工智能系统能够像人类一样持续学习。自2019年以来,他就在开发“测试时训练”的概念框架,TTT-E2E项目的早期构想就是他提出的。

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 5:37:40

DeepSeek-V4蓄势待发!梁文锋署名论文或开启第二个DeepSeek时刻

据权威媒体The Information报道,DeepSeek将于2月(春节)发布新一代旗舰模型DeepSeek V4,该模型具备强大的编程能力,预计将对当前的AI竞争格局产生重大影响。元旦前一天,DeepSeek发了篇梁文锋署名论文&#x…

作者头像 李华
网站建设 2026/4/17 7:45:19

从 RPA 迈向智能自治,开启企业外部群运营的“自动驾驶”时代

​ QiWe开放平台提供了后台直登功能,登录成功后获取相关参数,快速Apifox在线测试,所有登录功能都是基于QiWe平台API自定义开发。 一、 趋势洞察:从“流程自动化”到“智能自治” 未来的外部群管理将呈现三个核心转变&#xff1a…

作者头像 李华
网站建设 2026/4/18 7:29:00

康养休闲旅游服务实训室设备列表与功能介绍

一、 康养休闲旅游服务实训室健康评估与初步筛查模块设备清单该模块设备用于训练学员掌握对客人的健康状况进行系统化评估与记录的能力。智能体征监测设备: 包括非接触式睡眠监测仪、便携式多参数检测仪,功能在于教学员规范采集心率、血压、睡眠质量等基…

作者头像 李华
网站建设 2026/4/18 8:18:33

Springboot应急物资管理系统s8124(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。

系统程序文件列表项目功能:物资类型,用户,地区,物资需求,物资捐赠,应急物资,物资出库,物资入库,供应商,物资筹措开题报告内容一、研究背景与意义(一)现实背景全球自然灾害与公共卫生事件频发,传统应急物资管理暴露三大核心痛点&am…

作者头像 李华
网站建设 2026/4/18 10:08:16

从混乱到高效:2026年玄微科技如何重塑孕产门店运营?

在孕产健康管理行业快速发展的今天,门店运营的精细化与智能化已成为提升竞争力的关键。面对市场上众多管理系统选项,如何选择正规且适配的专业解决方案,成为行业从业者的核心关切。本文聚焦孕产场景,深入分析行业需求,…

作者头像 李华