news 2026/4/18 12:40:25

MoE架构

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
MoE架构

🍋🍋AI学习🍋🍋

🔥系列专栏: 👑哲学语录: 用力所能及,改变世界。
💖如果觉得博主的文章还不错的话,请点赞👍+收藏⭐️+留言📝支持一下博主哦🤞


一、Decoder-only原始架构

在MoE中,decoder-only就是改造的前馈神经网络层。

二、MoE图解

三、前向传播过程

Top-k (k=1 或 2)为例:

1、计算路由权重

2、选择专家

  • 取权重最大的 k 个专家,得到索引集合 S(x)。

3、专家前向

  • 对选中的每个专家 e:

4、加权合并

五、MoE的优势

1、参数量大,计算量可控

(1)普通 Transformer:每次前向传播都要用到所有参数,想增加容量就必须增加计算量。

(2)MoE:可以把参数拆分成 N 个“专家”,每个 token 只激活Top-k个专家(常见 k=1 或 2)。

(3)计算量 ≈ k/N × 总参数量,总参数可以做到数百亿甚至上万亿,而实际每步计算只相当于几十亿

2、表达能力更强

不同专家可以学习不同的子任务/语义模式(例如语法、数学、代码、图像描述等)。

通过 gating 机制,每个 token 动态选择专家 →条件计算 (conditional computation), 类似于“如果输入属于某类特征,就让某些专家专门处理”

3、训练与扩展灵活

易于扩展:只需增加专家数量即可增加模型容量,而计算成本几乎不变。

模块化训练:专家可以并行分布到不同 GPU/节点,方便大规模分布式训练。

局部更新:理论上可以只更新某些专家以实现增量学习或领域适配。

4、更好的多样性与鲁棒性

由于专家学习到不同的特征空间,模型在面对分布外数据时往往更有鲁棒性。

对长尾任务更友好:稀有任务可能被特定专家捕获,而不会被主流任务“淹没”。

六、常见变体

  • Switch Transformer:Top-1 路由,最简单高效。

  • GShard:Top-2 路由 + 负载均衡 loss。

  • Mixtral、DeepSeek-MoE:更大规模专家、改进 gating、共享路由策略。

  • Shared MoE / Residual MoE:增加共享专家或残差,稳定训练。

七、总结

MoE 的前馈网络内部仍然是“升维→激活→降维”的 FFN, 区别在于:

不止一个 FFN,而是多个专家并存,由门控网络为每个 token 动态选择少数专家执行, 这样可以在保持计算成本可控的同时显著扩大模型容量与表示能力。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 8:14:38

3、探索DevOps的核心与实践:从理念到组织变革

探索DevOps的核心与实践:从理念到组织变革 1. 走近Kevin Behr与他的DevOps之旅 Kevin Behr身为PraxisFlow的首席科学官,专注于协助客户发展DevOps流程。他拥有25年行业经验,热衷于解决大型IT组织面临的复杂问题。他的DevOps之路始于童年,父亲Harold Behr是AFSM的联合创始…

作者头像 李华
网站建设 2026/4/18 9:57:46

15、探索 DevOps、容器技术与 IT 未来发展

探索 DevOps、容器技术与 IT 未来发展 1. 认识 Bret Fisher Bret Fisher 是一位自由职业的 DevOps 和 Docker 顾问,同时也是 Udemy 讲师、培训师、演讲者以及开源志愿者。他专注于 Docker 和容器技术教学,可在 Twitter 上通过 @BretFisher 关注他。 2. 深入探讨 DevOps 2…

作者头像 李华
网站建设 2026/4/18 7:02:17

导航栏选中态

2️⃣ 标准实现方式datadata() { return { activeMenu: workbench } }template<div :class"{ active: activeMenu workbench }"></div> <div :class"{ active: activeMenu ajtz }"></div>methodsthis.activeMenu ajtz;CSS.wor…

作者头像 李华
网站建设 2026/4/18 6:58:08

PyTorch安装失败?试试这个预配置CUDA工具链的基础镜像

PyTorch安装失败&#xff1f;试试这个预配置CUDA工具链的基础镜像 在深度学习项目启动的前48小时里&#xff0c;你有没有经历过这样的场景&#xff1a;满怀期待地写下第一行 import torch&#xff0c;结果却等来一句冰冷的 CUDA not available&#xff1f;更糟的是&#xff0c;…

作者头像 李华