news 2026/4/18 5:37:59

YOLO26改进策略【Backbone/主干网络】| CVPR 2024 替换骨干网络为 RMT,增强空间信息的感知能力

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
YOLO26改进策略【Backbone/主干网络】| CVPR 2024 替换骨干网络为 RMT,增强空间信息的感知能力

一、本文介绍

本文记录的是将RMT应用于YOLO26骨干网络的改进方法研究

RMT通过构建基于曼哈顿距离的空间衰减矩阵,引入显式空间先验,同时提出新的注意力分解形式,在不破坏空间衰减矩阵的前提下,以线性复杂度对全局信息进行稀疏建模。将RMT入YOLO26的骨干网络,能够有效提升其对图像空间信息的感知能力,在减少计算量的同时增强特征提取效果,进而提高YOLO26在各项任务中的准确性与效率 。

YOLO26的基础上配置了原论文中RMT_TRMT_SRMT_B,RMT_L四种模型,以满足不同的需求。

文章目录

  • 一、本文介绍
  • 二、RMT原理介绍
    • 2.1 出发点
    • 2.2 结构原理
    • 2.3 优势
  • 三、RMT的实现代码
  • 四、修改步骤
    • 4.1 修改一
    • 4.2 修改二
    • 4.3 修改三
  • 五、yaml模型文件
    • 5.1 模型改进⭐
  • 六、成功运行结果

二、RMT原理介绍

RMT:Retentive Networks Meet Vision Transformers

RMT模型是一种具有显式空间先验的视觉骨干网络,旨在解决Vision Transformer(ViT)自注意力机制存在的问题。其结构设计的出发点、原理和优势如下:

2.1 出发点

ViT中的自注意力机制缺乏显式空间先验,且在对全局信息建模时具有二次计算复杂度,限制了ViT的应用。为缓解这些问题,作者从自然语言处理领域的Retentive Network(RetNet)中汲取灵感,提出RMT模型

2.2 结构原理

  • Manhattan Self - Attention(MaSA):将RetNet中的单向一维时间衰减扩展为双向二维空间衰减,基于曼哈顿距离引入显式空间先验
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 13:26:22

新零售行业低代码平台应用实践

在数字化浪潮推动下,新零售行业正经历从“渠道融合”到“全链路智能协同”的转型深水区。线上线下数据割裂、业务流程繁琐、需求迭代滞后、复合型人才短缺等痛点,成为制约企业突破增长瓶颈的核心障碍。低代码平台凭借“可视化搭建、快速迭代、全民参与”…

作者头像 李华
网站建设 2026/4/16 13:33:45

震惊!中国电信AI新神作TeleMem让大模型“开挂“,记忆暴涨38%!小白程序员也能轻松上手!

思维导图曾被证明可以帮助学习障碍者快速提升成绩,那么当前已经可堪一用的智能体系统如果引入类似工具是否可以帮助改善长期学习记忆能力呢?有研究团队做出了探索性尝试。 在长上下文和Agent应用不断落地的过程中,越来越多研究者开始意识到&…

作者头像 李华
网站建设 2026/4/18 3:07:32

20260126_222059_AI_Agent_重构产业逻辑___《AI_Agent_智能

2025 年,AI 领域最耀眼的赛道非 AI Agent 莫属。这个能感知、决策、行动、学习的 “数字伙伴”,正从技术概念快速成长为千亿级产业,重塑工业制造、医疗、金融等多个领域的发展格局。中国工业互联网研究院发布的《AI Agent 智能体技术发展报告…

作者头像 李华
网站建设 2026/4/3 7:20:39

全网最全本科生必看TOP10 AI论文工具测评

全网最全本科生必看TOP10 AI论文工具测评 2026年本科生AI论文工具测评:为何值得一看 在人工智能技术不断渗透学术领域的今天,越来越多的本科生开始依赖AI工具提升论文写作效率。然而,面对市场上五花八门的AI写作平台,如何选择真正…

作者头像 李华
网站建设 2026/4/16 19:32:17

【Hot100|13-LeetCode 56. 合并区间】

LeetCode 239. 滑动窗口最大值 - 单调队列解法详解 一、问题理解 问题描述 给定一个整数数组 nums 和一个整数 k,滑动窗口从数组的最左侧移动到最右侧,每次只向右移动一位。请找出所有滑动窗口中的最大值,并返回这些最大值组成的数组。示例 t…

作者头像 李华