news 2026/4/18 8:30:16

Kimi K2.5登顶开源第一!15T数据训练秘籍公开,杨植麟剧透K3

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Kimi K2.5登顶开源第一!15T数据训练秘籍公开,杨植麟剧透K3

在Hugging Face上,Kimi K2.5登上了Trending榜首,下载量超过了5.3万。

开源热榜第一轮流做,现在花落Kimi。

在Hugging Face上,Kimi K2.5登上了Trending榜首,下载量超过了5.3万。

Kimi K2.5主打Agent能力,在HLE-Full、BrowseComp等测试集中,成绩超越了GPT-5.2、Claude 4.5 Opus以及Gemini 3 Pro等旗舰闭源模型。

而且极具性价比,在BrowseComp上达到比GPT-5.2更高的表现,Kimi K2.5的资金消耗仅有不到5%。

现在,官方的技术报告也已经亮相,Kimi K2.5怎样练成,我们可以从中窥探一些答案。

原生多模态,15T Token混合训练

Kimi K2.5在K2的架构基础上,投入了15T的视觉与文本混合Token进行持续预训练。

它选择了一条原生多模态的技术路线,让同一套参数空间直接处理视觉信号与文本逻辑。

在15T这样庞大的数据量级下,视觉理解与文本推理能力实现了同步增强,一改往日“此消彼长”的局面。

这种统一的参数架构,让模型能够像理解语法结构一样,精准解析像素背后的逻辑语义。

有了这套原生底座,K2.5解锁了“视觉编程”能力。

因为能在像素层面进行推理,它具备了从视频流直接逆向推导代码的能力。

面对一段包含复杂滚动触发特效或动态交互布局的网页演示视频,模型能够准确捕捉视觉元素随时间轴变化的规律,并将其直接映射为可执行的前端代码。

这一过程跳过了“视觉-文本”的中间环节,让开发需求能够以最直观的视觉形式传递给模型,实现了从设计演示到代码实现的无损转化,即便是极其复杂的动态交互逻辑也能被精准还原。

为了解决代码能跑但样式不对的问题,K2.5还集成了自主视觉调试机制,在代码生成并渲染出界面后,模型会调用视觉感知能力对实际运行的页面进行验收。

一旦发现布局错位、样式偏差或动画异常,模型会自动触发文档查询工具,查阅相关技术文档定位问题,并对代码进行修正。

这种“生成-观察-查阅-修复”的自动化闭环,模拟了高级工程师的调试流程,让模型具备了独立完成端到端软件工程任务的可靠性。

超大规模“智能体集群”

为了能更好地解决复杂任务,Kimi K2.5还搭载了Agent Swarm架构。

这是一套能自主构建百人规模数字化团队的并行系统,让模型获得了“分身”能力,可以瞬间创建并编排多达100个子智能体,并支持调用1500个工具的并行工作流。

这种机制将全网深度搜索或海量数据分析等复杂任务,拆解为无数个同步进行的子任务,利用集群算力大幅压缩了处理时间。

指挥这支庞大团队运转的是PARL(并行智能体强化学习)框架。

该框架建立了一套严密的指挥体系,由核心的调度器和众多子智能体构成。

调度器如同指挥官,负责宏观层面的任务拆解与分发;子智能体则作为执行层,在参数冻结的状态下专注于高效完成具体指令。

这种动静结合的设计,既赋予了系统灵活规划的能力,又保障了大规模并行操作的逻辑严密性。

为了让模型学会高效分工,训练过程采用了一套阶段性奖励塑造策略。

系统在初期会优先激励调度器进行并行化探索,培养其“多管齐下”的直觉;随着训练深入,奖励重心平滑过渡至任务的最终成功率。

这种循序渐进的训练方式,让模型建立了在保证结果准确的前提下,最大化利用并发优势的思维习惯。

在效率评估上,系统引入了临界步骤作为核心指标,基于并行计算的关键路径原理,聚焦于调度开销与最慢子智能体的耗时。

这种机制倒逼模型在决策时,必须优先考虑如何缩短端到端的实际等待时间。只有在能切实提升响应速度的情况下,系统才会增加并行度,从而在极致速度与计算资源消耗之间找到了最佳平衡。

杨植麟剧透Kimi K3

K2.5上线后不久,月之暗面的三位创始人——杨植麟、周昕宇和吴育昕现身Reddit,来了一场长达3小时的AMA问答。

面对全球开发者和的提问,他们直接把代码背后的思考、未来的剧透甚至尴尬的Bug都摊开来聊了个透。

对于大家最关心的下一代Kimi K3,团队给出了一个相当硬核的预告——它很可能基于线性注意力机制。

杨植麟更是直言,虽然不敢打包票,但K3相比K2.5哪怕没有10倍的提升,也绝对会有质的飞跃。

针对K2.5偶尔会自称Claude的趣闻,团队也给出了坦诚的解释——

这是因为Kimi“吃”了太多高质量的编程训练数据,而这些数据里充斥着Claude的名字 。这就像读了太多某位作家的书,说话难免带上对方的口头禅。

此外他们也对算力焦虑问题进行了回应,算法负责人周昕宇抛出了一句“创新往往诞生于约束之中(Innovation loves constraints)” 。

在他们看来,堆砌算力不是通往AGI的唯一路径,在有限的资源下逼出更高效的算法、更聪明的架构,才是这家实验室真正的“登月”野心 。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 6:57:29

微信红包,腾讯元宝学不会

元宝红包如约而至。有不少人喝彩,但更多的还是质疑。我有两个疑问:第一,元宝是不是从拼多多挖过了特殊人才,把“是家人就砍我一刀”的学会了,这红包玩得套路有点深;第二,元宝各种群和朋友圈分享…

作者头像 李华
网站建设 2026/4/18 7:03:52

sklearn中的学习曲线使用时机:用sklearn来观察模型表现时,应该是在模型训练前对未训练的模型使用,还是对训练完的模型使用??

🏆本文收录于 《全栈 Bug 调优(实战版)》 专栏。专栏聚焦真实项目中的各类疑难 Bug,从成因剖析 → 排查路径 → 解决方案 → 预防优化全链路拆解,形成一套可复用、可沉淀的实战知识体系。无论你是初入职场的开发者&…

作者头像 李华
网站建设 2026/4/8 12:49:56

【问题解决】OSError: Can‘t load tokenizer for ‘xxx/xxx-model‘

文章目录 【问题解决】OSError: Cant load tokenizer for xxx/xxx-model问题描述问题原因解决方案方案 1:检查并删除本地冲突目录方案 2:使用完整的模型路径方案 3:检查网络连接方案 4:清理缓存方案 5:更新 transforme…

作者头像 李华
网站建设 2026/4/16 14:43:36

不光是报警器:大数据如何变身真正的风险管理“大脑”

不光是报警器: 大数据如何变身真正的风险管理“大脑” 作者:Echo_Wish 咱们先从一句非常接地气的话说起: 风险管理不是把问题“发现出来”,而是把问题“提前扼杀在摇篮里”。 不管是金融风控、供应链风险、还是运营系统稳定性风控,传统方法往往是: 报警规则写一堆 → …

作者头像 李华