news 2026/5/16 2:22:32

RK-∞降维打击Mamba?线性注意力真的有“免费午餐”!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
RK-∞降维打击Mamba?线性注意力真的有“免费午餐”!

这顿“免费午餐”,或许正是通向长文本高保真建模的下一块基石。

在大模型迈向超长上下文的当下,混合注意力(Hybrid Attention)已成为 MiniMax、Qwen、Kimi 及 NVIDIA 等厂商竞相采用的技术底座。其核心逻辑通常是利用 Softmax 注意力捕捉近距离依赖,配合线性注意力或状态空间模型(SSMs)处理远距离背景。

然而,作为一种长期被视为“次优近似”的组件,线性注意力在超长序列下始终难以摆脱数值漂移和记忆退化的问题。

南洋理工大学与复旦大学的一项最新工作,把矛头直接指向了这一问题最容易被忽略的根源:问题不在模型结构,而在数值方法。

研究者提出了 EFLA(Error-Free Linear Attention),指出我们过去一直用一阶欧拉法去离散一个本应精确求解的连续动力学系统,才是导致不稳定和性能退化的根源。

更关键的是,这项工作证明,在保持线性时间复杂度不变的前提下,通过引入无限阶 Runge–Kutta 级别的解析解,可以彻底消除离散化误差。

这意味着线性注意力第一次不再以“近似”为代价:在不增加任何参数的情况下,实现了稳定性与性能的同步提升,并在多个基准上超越了 DeltaNet 等主流方案。

论文标题:

Error-Free Linear Attention is a Free Lunch: Exact Solution from Continuous-Time Dynamics

论文链接:

https://arxiv.org/abs/2512.12602

代码链接:

https://github.com/declare-lab/EFLA

研究背景

当大语言模型进化为需要处理超长推理轨迹的 Agent 时,标准注意力的二次方复杂度成了不可逾越的鸿沟。

线性注意力试图通过维护一个矩阵状态来存储键值对关联,从而实现线性推理:

但这种无限制的累加会导致记忆干扰和状态爆炸。为了解决这一问题,DeltaNet 将状态更新建模为对重构损失的在线梯度下降:

由此推导出的 Delta Rule 更新公式如下:

这正是问题的根源所在。论文指出,这一更新步骤在数学本质上等效于对一个一阶线性常微分方程(ODE)进行一阶显式欧拉离散化。

该底层的连续时间 ODE 为:

其中为动力学矩阵,为输入强制项。

数值分析表明,欧拉法的局部截断误差高达。在处理长上下文或刚性(Stiff)动力学系统时,这种低阶近似会导致误差迅速累积,表现为记忆的过早遗忘或数值漂移。

此前诸如门控(Gating)或自适应遗忘系数等尝试,本质上只是对低阶误差的启发式修正。

核心方法

作者提出,消除误差的终极方案不是去优化离散化步长,而是直接寻找底层 ODE 的解析解。

2.1 解析解的导出

基于数字系统中常用的零阶保持(ZOH)假设,状态在每个时间步内的演化可以看作是在 piecewise constant 的下进行的。

该 ODE 在步长内的通用解析解为:

这个解析解代表了数值积分中 Runge-Kutta 家族的无限阶极限(RK-)。

2.2 利用 Rank-1 结构突破计算瓶颈

通常计算矩阵指数需要的复杂度。但 EFLA 的设计者捕捉到了一个极其关键的数学特性:动力学矩阵是一个秩-1(Rank-1)矩阵。

秩-1 矩阵具有幂等相关的特殊属性:,其中。利用这一性质,矩阵指数的泰勒展开可以直接塌缩为一个简洁的闭式解:

将此项代入积分项并经过严谨的代数简化,最终得到了 EFLA 的精确更新规则:

这一公式在消除离散化误差的同时,计算复杂度仍维持在。这证明了在 Rank-1 约束下,解析解是“免费”获得的。

3.3 光谱门控(Spectral Gate)与遗忘机制

不同于 DeltaNet 强制要求对 Key 进行归一化,EFLA 使用非归一化 Key。在此框架下,充当了光谱门控(Spectral Gate)的角色:

强输入信号(大 Key 范数):会导致状态沿着方向发生快速的指数级衰减,迅速清理旧槽位以为新信息腾空间。

弱输入信号(小 Key 范数):则表现为缓慢的衰减,最大程度保留历史背景。这种方向性衰减机制使得 EFLA 具备了比传统线性注意力更强的记忆动态管理能力。

3.4 对标 Mamba:阶数的代际压制

这是一个非常有趣的对比点。现代 SSM 模型如 Mamba 通常采用双线性变换进行离散化,这在数学上等价于隐式二阶 Runge-Kutta 方法。而 EFLA 通过剥离 Rank-1 矩阵指数,直接跨越到了 RK-∞ 级别。

这意味着在理论数值精度上,EFLA 对现有的有限阶 SSM 构成了一次降维打击。

实验结果

作者通过 sMNIST 和大规模语言建模实验验证了 EFLA 的优越性。

3.1 鲁棒性压力测试

在 Sequential MNIST (sMNIST) 任务中,作者通过人为引入像素丢失、信号缩放和高斯噪声来模拟极端不稳定的输入环境。

〓 图1. EFLA 与 DeltaNet 在 sMNIST 上的收敛速度与鲁棒性对比

实验揭示了两个关键现象:

对抗信号爆炸:当输入被放大(Scale 增加)时,基于一阶近似的 DeltaNet 性能迅速崩溃,确认了低阶近似在处理高能信号时的脆弱性。而 EFLA 依靠精确的指数饱和机制有效防止了状态爆炸。

高保真记忆:在噪声干扰下,EFLA 的性能退化速度远慢于基线,证明其构建了更高保真的记忆表示。

3.2 语言建模能力评估

在大规模实验中,EFLA 全面超越了 DeltaNet 基准。

〓 表1. EFLA 与 DeltaNet 在语言建模主实验中的结果对比。

从表 1 数据可以清晰看到:

在 LAMBADA 任务上,EFLA 将 Perplexity 从 96.26 压低至 81.28(340M 规模)。在 BoolQ 准确率上,EFLA 实现了 +7.4% 的巨大飞跃。

这些结果有力地证明了,通过消除数值离散化误差,模型能够显著提升对长序列历史信息的保留精度。

3.3 反直觉的优化策略:更大的学习率

实验发现,EFLA 由于存在指数级的饱和效应(Saturation effect),可能导致梯度信号在收敛阶段受阻。

〓 图2. 学习率缩放对 EFLA 鲁棒性的影响。

如图 2 所示,相比传统的保守策略,EFLA 在更大的学习率下展现出更强的鲁棒性。这种反直觉的超参数设置是释放其理论潜力的关键要素。

结语

EFLA 是一项具有高度理论美感的成果。它向我们证明了,线性注意力长期以来的性能瓶颈并非由于架构本身的基因缺陷,而是源于我们在数值实现上的粗糙妥协。

通过利用 Rank-1 特性绕过复杂的数值积分,EFLA 在不增加计算成本的前提下,实现了从一阶欧拉近似到无限阶解析解的跨越。

对于目前正处于混合注意力深水区的工业界而言,EFLA 提供了一套直接且高效的升级路径。它告诉我们,最优雅、最强力的解决方案往往就藏在最底层的连续时间方程之中。

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/11 14:41:08

Kotaemon与HuggingFace模型集成实操指南

Kotaemon与HuggingFace模型集成实操指南在今天这个AI技术飞速普及的时代,越来越多开发者和企业开始关注一个问题:如何在不牺牲隐私、不依赖云端API的前提下,构建一个真正属于自己的智能助手?尤其是在处理敏感数据或需要低延迟响应…

作者头像 李华
网站建设 2026/5/13 9:58:08

FaceFusion如何实现头发边缘的自然过渡?

FaceFusion如何实现头发边缘的自然过渡?在如今的人像编辑应用中,用户早已不再满足于简单的“换脸”效果。当你把一张明星的脸贴到自己的自拍照上时,如果发丝边缘生硬、颜色突兀、仿佛戴了一张劣质面具,那体验无疑是灾难性的。真正…

作者头像 李华
网站建设 2026/5/14 14:04:57

Langchain-Chatchat如何处理图片中的文字内容?OCR集成方案

Langchain-Chatchat 如何处理图片中的文字内容?OCR 集成方案 在企业知识管理的实践中,一个常见的痛点是:大量关键信息以图像形式存在——扫描合同、会议白板照片、发票截图、手写笔记……这些文件明明“看得见”,却“搜不到”。传…

作者头像 李华
网站建设 2026/5/14 11:45:04

小程序毕设选题推荐:基于php+微信小程序的考公资料库分享平台校园资料分享平台/校园资源共享/学习资料分享/教育资源共享平台【附源码、mysql、文档、调试+代码讲解+全bao等】

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

作者头像 李华
网站建设 2026/4/30 8:12:41

FaceFusion人脸动态模糊补偿技术介绍

FaceFusion人脸动态模糊补偿技术深度解析 在短视频、直播和影视特效日益普及的今天,观众对视觉内容的真实感与流畅度提出了前所未有的高要求。尤其是在人脸替换这类敏感任务中,哪怕是一帧轻微的模糊或一次表情跳跃,都可能让“真实”崩塌&…

作者头像 李华
网站建设 2026/5/14 18:53:25

零基础转行大模型全攻略:从入门到就业的完整指南

这篇文章分享了从其他领域转行到大模型的经验和建议,包括转行动机、学习路径、面试准备和行业前景。作者强调行动的重要性,提出分阶段学习法:从理论入门到实践应用,再到面试比赛提升。文章认为大模型如同"锤子"可应用于…

作者头像 李华