news 2026/4/18 7:54:07

AI技术突破:港中大WeChat AI联合出品HGMem,让大模型在100k+长文本中也能全局推理,成本还不增加!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
AI技术突破:港中大WeChat AI联合出品HGMem,让大模型在100k+长文本中也能全局推理,成本还不增加!
https://github.com/Encyclomen/HGMemImproving Multi-Step RAG with Hypergraph-Based Memory for Long-Context Complex Relational Modeling https://arxiv.org/pdf/2512.23959

港中大 &WeChat AI联合团队

RAG双重暴击:“超长+全局推理”

传统 RAG 的痛点具体表现
单步检索只能“点到点”找答案,跨章节、跨事件关联无力
工作记忆=简单摘要用一段流水账plain text 记录历史,丢细节、丢引用、丢结构
图记忆最多二元关系(A→B),无法表达“三元及以上”高阶关联

结果:在 100k+ token 的金融/法律/小说类文档里,一旦问题需要“全局 sense-making”(例如“为什么 Xodar 被送给 Carter 当奴隶?”),现有方法就像拼图只拼边缘,中间永远缺一块。

HGMEM——把“记忆”升级成“超图”

图1:左侧为第 t 步交互流程;右侧为超图记忆的演化示意

2.1 核心思想

把“工作记忆”不再当成一块硬盘,而是一张可动态生长、可高阶连接的超图

  • 每个超边(hyperedge)= 一个“记忆点”,可一次性连接 ≥2 个实体
  • 支持三种原子操作:Update ∣ Insert ∣ Merge
  • 每一步先“自我检查”→ 决定局部深挖 or 全局探索 → 检索 → 用 LLM 把新证据合并成更高阶的超边

2.2 关键模块一览

模块作用与传统做法差异
超图存储hypergraph-db实时维护节点 & 超边不再是 plain text 或二元图
自适应检索Local Investigation ↔ Global Exploration 切换先“查周边”再“开新地图”,减少冗余
记忆合并把多条低阶事实熔成一条高阶关系二元图做不到 n-ary 融合
子查询生成LLM 基于当前超图拓扑自动出题避免人工模板

图2 记忆演化案例

图2:Cowslip Moth 案例中,三条低阶事实被合并成一条“昆虫-植物共生”高阶关系

实验:成绩与成本双赢

3.1 主要结果

在 4 个超长文档基准(NarrativeQA / NoCha / Prelude / LongBench-V2)上,同样用 GPT-4o 或 Qwen-32B 做 backbone,HGMEM 全线 SOTA

表1:↑ 表示合并操作带来的高阶关联对“sense-making”类问题尤为关键

3.2 成本对比

与同样带工作记忆的 DeepRAG / ComoRAG 相比,HGMEM 平均 token 消耗与延迟几乎持平,并未因“超图”而额外增负:

表5 在线开销对比

表5:合并操作仅增加 <7% token,却带来显著精度提升

一句话总结

HGMEM 把“记忆”从静态硬盘升级成动态超图,让大模型在超长文本里像侦探一样层层抽丝、合并线索、全局破案,而且不增成本——多步 RAG 的“记忆”就该这么玩!

那么,如何系统的去学习大模型LLM?

作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 1:31:29

github镜像仓库fork策略:跟踪上游更新同时保留定制

GitHub 镜像仓库 Fork 策略&#xff1a;如何在保留定制的同时持续同步上游更新 在 AI 工具快速迭代的今天&#xff0c;一个语音合成模型可能每周都在修复 Bug、优化性能、更新依赖。你刚部署好的 GLM-TTS 中文增强版还没用熟&#xff0c;上游主干已经重构了推理流程——这种“追…

作者头像 李华
网站建设 2026/4/18 1:34:03

curl模拟POST请求调用GLM-TTS接口实现自动化合成

使用 curl 自动化调用 GLM-TTS 实现高效语音合成 在智能语音内容需求激增的今天&#xff0c;自动化生成高质量、个性化语音已成为数字内容生产的关键环节。无论是为虚拟主播批量制作每日播报&#xff0c;还是将电子书文本转化为有声读物&#xff0c;传统依赖图形界面的手动操作…

作者头像 李华
网站建设 2026/4/18 1:40:17

打造个性化播客神器:基于GLM-TTS的自动化音频生产方案

打造个性化播客神器&#xff1a;基于GLM-TTS的自动化音频生产方案 你有没有想过&#xff0c;只需要录几秒钟的声音&#xff0c;就能让AI替你“开口说话”&#xff1f;在内容创作日益高频的今天&#xff0c;许多独立播主、知识博主甚至小型媒体团队都面临着一个共同难题&#xf…

作者头像 李华
网站建设 2026/4/18 3:19:02

Dify平台升级攻略:揭秘v1.10.1与v1.6.0黄金稳定版,全面升级策略助你无忧过渡,确保大模型应用开发的高效与稳定!

简介 本文详细分析了Dify平台的版本稳定性问题&#xff0c;推荐了v1.10.1和v1.6.0两个黄金稳定版本&#xff0c;并指出需要避免的问题版本。文章提供了全面的升级策略&#xff0c;包括版本跨度限制、数据备份要点、灰度测试方案和长期版本管理建议。通过遵循这些指南&#xff0…

作者头像 李华