news 2026/4/22 13:07:47

斯坦福大学教授李飞飞团队:2026年人工智能发展报告总结!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
斯坦福大学教授李飞飞团队:2026年人工智能发展报告总结!

本文约5000字,建议阅读5分钟关于斯坦福大学教授李飞飞联合创始的HAI团队发布的2026年人工智能发展报告《2026人工智能指数报告》的最新总结。

1. 研究与开发:产业界垄断加剧,美国吸引AI人才的速度10年来最低

先看一个今年很扎眼的变化。2025年,全球91.6%的"标志性模型"(指具有高度影响力的AI模型)来自产业界,学术界只产出了1个。这个比例在2023年还是约60%,短短两年翻天覆地。

具体到地区,美国以50个遥遥领先,中国31个,韩国5个,剩下加拿大、法国、英国各1个。从下图能直观看出这个差距有多大。

图1|2025年各国标志性AI模型发布数量(来源:Epoch AI)

聚焦到公司层面,2025年发布标志性模型最多的是OpenAI(19个)、谷歌(12个)、阿里巴巴(11个)、Anthropic(7个)。中国AI企业里,阿里巴巴、DeepSeek、字节跳动都在榜单上。

图2|2025年各机构标志性模型数量(来源:Epoch AI)

再看研究侧。论文总量、引用总份额、专利授权数量,中国全都排第一——2024年中国占全球AI论文引用的20.6%,美国只有12.6%。唯一还能说美国领先的,是Top 100高引用论文的数量,但2024年美国和中国都是41篇,两者已经持平。中国在研究上的追赶速度比很多人预期的快得多。

今年报告里有一个细节:越强的模型,反而越不透明。OpenAI、Anthropic、谷歌的顶级模型,现在连参数量、训练数据规模、训练时长都不再公开了。

人才方面也出现了一个很反常的信号——美国吸引AI研究者和开发者移入的数量,比2017年暴跌了89%,仅去年一年就下降了80%。美国还是全球AI人才最密集的地方,但新人才流进来的速度是10年来最低的。从下图能看到各国的人才净流入/流出情况。

图3|各国AI顶尖作者和发明者净流入/流出情况,2010-2025(来源:Zeki Data)

再来看一个数字,训练一个顶级模型,碳排放已经到了什么量级。2012年训练AlexNet,碳排放估算是0.01吨CO₂;2025年训练Grok 4,这个数字变成了72,816吨。中间涨了将近700万倍。报告里专门做了个对比:一辆普通汽车整个使用寿命的碳排放约63吨,Grok 4一次训练就是它的1000多倍。从下图能清晰看到这个增长有多陡。

不过有个细节值得单独说:DeepSeek v3训练产生了约597吨,远低于体量相近的其他模型。这从碳排放的角度侧面印证了DeepSeek的训练效率——用更少的算力完成了同等水平的训练,消耗少,排放自然也少。

2. 技术性能:AI有些地方已经超过人类,有些地方出奇的差

今年有个数据对比挺有意思:Gemini Deep Think在2025年国际数学奥林匹克(IMO)上拿了金牌(35分),在4.5小时内全程用自然语言作答,比去年的银牌又进了一步。但同样是顶级模型,在ClockBench上读取模拟钟表,正确率只有50.1%——人类随便拉个成年人来,也有90.1%。

这种"高处强、低处弱"的现象,报告里专门有个词:jagged frontier(参差前沿)。简单说就是,AI在某些方面已经超越人类,在另一些看起来很基础的事上却出奇地差,而且这不是某一个模型的问题,是现阶段AI共有的特征。

再看各家整体性能。从Arena Leaderboard(全球最大语言模型实时评测平台,由伯克利等高校主导)的Elo评分来看,截至2026年3月,几家顶级模型的差距已经小到几乎分不清:Anthropic 1503分、xAI 1495分、谷歌 1494分、OpenAI 1481分,前四名挤在25分以内。从下图可以看到这个收窄的过程。

图4|各厂商顶级模型Arena评分趋势(来源:Arena 2026)

中美差距方面,这两年多次易手。2025年2月,DeepSeek-R1和美国顶级模型一度只差5分;截至2026年3月,美国领先中国最强模型2.7%。这个差距在过去一年里一直在个位数以内反复波动,已经不是当年那种断崖式领先了。

图5|美国与中国顶级模型Arena评分对比(来源:Arena 2026)

开源和闭源的差距,去年一度缩小到0.5%,但今年又拉开了——截至2026年3月,闭源最强模型领先开源最强模型3.3%,Arena前10名里有6个是闭源模型。

图6|闭源与开源最强模型Arena评分差距变化

还有一件事值得单独说:我们用来衡量AI进步的那些测试本身,正在出问题。对9个常用基准的检查发现,GSM8K里有42%的题目存在问题,MMLU系列里也有从2%到26%不等的无效题。另外有研究显示,Arena排行榜的结果可能部分反映的是模型对这个平台的适应性,而不是真正的通用能力。

AI智能体(Agent)方面,OSWorld(跨操作系统的真实电脑任务测试)上的成功率从12%跳到约66%,进步很明显,但还是有约三分之一的任务做不到。机器人方面:在软件仿真环境里操作成功率89.4%,放到真实家庭环境只剩12%,实验室和现实之间的鸿沟依然很大。

3. 负责任的AI:事故达到362起,安全和准确之间开始互相打架

先简单说一下"负责任的AI(Responsible AI,RAI)"是什么意思。就是一套规矩,要求AI开发和使用时做到不带偏见、不泄露隐私、不带安全风险,还得符合法律和道德,最终对人和社会有好处。

2025年记录在案的AI事故达到362起,比2024年的233起又涨了55%,连续多年在增。问题是,几乎所有主流模型开发者都会认真报告MMLU、SWE-bench这类能力测试的成绩,但在安全、公平这些负责任AI指标上,报告就稀稀拉拉了。

透明度不升反降。AI基金会模型透明度指数的平均分,从2024年的58分跌回了2025年的40分——在训练数据、计算资源、部署后影响这些关键环节,主要开发者今年反而说得更少了。

最新研究还发现:提高AI某一个负责任维度(比如安全性),会系统性地损害其他维度(比如准确性)。这意味着负责任AI不是线性能解决的工程问题,每个方向之间都有内在矛盾。

组织层面有些好转:有AI专项治理职位的企业岗位增长了17%,完全没有负责任AI政策的企业占比从24%降到了11%。但主要障碍还是老三样:知识不够(59%)、预算不足(48%)、监管不确定(41%)。

4. 经济:全球AI投资规模翻倍,AI让年轻程序员先失业了

先看投资规模。

2025年全球AI总投资额达到5817亿美元,比2024年涨了约130%。私人投资最猛,达3447亿美元,同比涨了127.5%。其中光生成式AI就拿走了1709亿——占私人投资总额的近一半,增速超过200%。从下图能清晰看到这十几年的增长曲线。

图8|2013-2025年全球企业AI投资总额(来源:Quid 2025)

图9|全球AI私人投资额,2013-2025(来源:Quid 2025)

美国还是一骑绝尘。2025年美国私人AI投资2859亿美元,是中国(124亿)的23倍多。新获投AI公司数量上,美国有1953家,是排名第二国家的10倍以上。不过报告也专门提了,这个对比可能低估了中国的实际投入,因为中国政府引导基金2000年到2023年间估计向AI企业投了约1840亿美元,不计在私人投资里。

消费者这边有一个挺惊喜的数字:到2026年初,美国消费者每年从生成式AI工具里获得的估算总价值达到1720亿美元,比2025年的1120亿元增长了54%,而且人均价值中位数在一年内翻了三倍——其中大多数工具对用户要么免费,要么花不了几个钱。

生成式AI 3年内达到53%的人口渗透率,比个人电脑快,也比互联网快。但各国差异很大。新加坡61%、阿联酋64%,远超预期;美国只排第24名,28.3%,比很多人想的要低。

图10|全球30个主要经济体AI普及率排名(来源:Microsoft AI Economy Institute 2025)

就业方面,AI的冲击已经落地了,但不是平均分配的。22至25岁的美国软件开发者,就业人数比2024年下降了近20%;同期年长的开发者人数还在增长。年轻程序员干的基础编码工作,AI已经能替代;年长的做架构和判断,暂时还替代不了。客户支持、软件开发、营销这些岗位,AI带来了14%到50%不等的效率提升——效率上去了,但对应岗位的人也在减少。越是需要复杂判断的工作,目前受到的冲击反而越小。

5. 科学:小模型打败大模型,AI开始尝试替代科学家

2026年的报告第一次把"科学"单独列了一章,不再和医学合在一起。

今年有个很反直觉的发现:在科学领域,小模型正在打败大模型。MSAPairformer是个只有1.11亿参数的蛋白质语言模型,在ProteinGym基准上超过了此前的领先方法;GPN-Star只有2亿参数,但打败了一个400亿参数的模型,参数差了近200倍,照样赢。

2025年还冒出了"虚拟细胞模型"这个新方向——Arc Institute的Evo 2、DeepMind的AlphaGenome等,目标是不跑实验室实验,直接预测细胞对药物和基因扰动的反应。现在还做不到完全替代实验,但方向很清晰了。

数量上,AI相关科学论文2025年约8万篇,比2024年涨了26%,占整个科学研究产出的5.8%到8.8%,而2010年这个数字还不到1%。

但泼冷水的数据也有:在天体物理学论文复现测试(ReplicationBench)上,前沿模型得分不到20%;在地球观测问题上得分33%。顶级模型在化学难题上平均超过人类专家,却在一些基础任务上离谱地出错——和技术性能章里说的"参差"是同一个规律。

6. 医学:帮医生省了83%的写笔记时间,但严谨的证据还是太少

2026年报告也把医学单独列了一章。最让人眼前一亮的数据,是AI自动生成临床笔记的大规模落地:多个医院系统的数据显示,医生花在写病历上的时间减少了最多83%,职业倦怠感明显下降,有的医院还报告了112%的投资回报率。

诊断能力方面,微软的多智能体AI诊断系统配合OpenAI的o3,在复杂病例测试中准确率达85.5%,而没有辅助工具的医生只有20%。多智能体框架相比单智能体,诊断准确率提升了7%到超过60%——幅度差很大,说明效果高度依赖场景设计。

但报告同时泼了一盆冷水:对500多项临床AI研究的综述发现,近一半依赖考试式题目而非真实患者数据,只有5%用了真实临床数据。FDA 2025年批准了258个AI医疗设备,但只有2.4%有随机对照试验数据撑腰。

还有一个数字值得关注:现在84%到92%的健康相关谷歌搜索顶部,会出现AI生成的摘要。症状搜索触发AI概览的比例高达92%。AI正在成为普通人接触医疗信息的第一道门,但这些摘要准不准、会不会误导人,目前还缺乏系统性评估。

7. 教育:美国八成大学生用AI做作业,中国在AI教育遥遥领先

数字很直接:超过80%的美国高中生和大学生现在用AI做跟学习有关的事,最常干的是查资料、改论文、头脑风暴。

但学校跟不上。只有一半的中学有AI相关政策,只有6%的老师说那些政策是讲清楚的。学生在用,老师不知道该怎么管,这个错位目前还没有好的解法。

高等教育里有个结构性变化值得注意:美国四年制大学CS专业招生2024到2025年间下降了11%,但AI相关研究生项目还在涨。AI博士方面,美国和加拿大的新增AI博士2022到2024年增长了22%,但增长出来的这部分,全部流向了学术界,没有去产业——这把过去十年AI博士主要去企业的趋势给逆转了。

全球范围,90%以上的国家已经在中小学提供计算机科学教育,但AI教育普及慢很多。中国和阿联酋是例外,两国都在2025-26学年开始强制推AI教育。

8. 政策:各国争着搞"AI自主可控",美国对本国政府监管AI的信任度全球最低

今年政策这章有个关键词出现得很密集——"AI主权",意思是国家要掌控自己的AI能力、不依赖别人。这已经成了2025年全球AI政策的核心主题。

从国家战略来看,2024年超过一半的新国家AI战略来自过去五年完全没有正式AI政策的发展中国家——非洲、中亚、中东都有国家在起草。但能力建设差距很大:2018到2025年,欧洲和中亚把国家支持的AI超算集群从3个扩到了44个,而南亚、拉丁美洲、中东和北非加在一起也就十来个。

立法方向上,2025年出现了明显分歧:欧盟AI法案第一批禁令正式生效(禁止预测性警务、情绪识别等高风险用途);美国同期签行政令,方向是去监管、促进AI领导地位。日本、韩国、意大利各自通过了本国AI专项法律。

美国国会里AI相关证人从2017年的5人涨到2025年的102人,增加了20倍。产业界证人比例从13%升至37%,成为最大证人群体,学术界降至15%。

有个数字格外刺眼:美国受访者对本国政府能否负责任地监管AI的信任度,在所有调查国家里排最后,只有31%。全球平均是54%,新加坡81%、印度尼西亚76%排在最前面。

9. 公众观点:专家和普通人完全不同

全球来看,认为AI产品利大于弊的受访者比例从2024年的55%升到59%;但同期,说AI让自己感到紧张的比例也升到了52%。乐观和焦虑没有互相取代,而是一起在涨——越多人用AI,越多人既期待又担心。

图11|全球公众对AI态度趋势(来源:Ipsos 2025)

东南亚还是最乐观的地区。中国、马来西亚、泰国、印度尼西亚、新加坡,都有超过80%的受访者相信AI会在未来3-5年深刻改变他们的生活。印度是今年焦虑感涨得最快的国家,上升了14个百分点。

职场里用AI的比例,新兴市场比发达国家高出不少:全球58%的员工定期使用AI工作,但印度、中国、尼日利亚、阿联酋、沙特这个比例超过了80%。

专家和普通公众对AI未来的判断,差距大得惊人。关于AI对就业的影响:73%的专家觉得是积极的,公众里只有23%——差了整整50个百分点。对经济的看法:专家69%积极,公众21%;对医疗的看法:专家84%积极,公众44%。两个群体活在同一个世界,但对这个世界的判断完全不同。

就业焦虑上,64%的美国人认为AI会在未来20年导致岗位减少,只有5%觉得会增加。专家相对乐观(39%认为减少,19%认为增加),但专家预测到2030年AI辅助的工作时间会占美国工时的80%,公众的预判只有10%。

报告地址:https://hai.stanford.edu/ai-index/2026-ai-index-report

编辑:文婧

关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。

新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/22 13:07:43

RimWorld Mod开发进阶:用状态机重构你的集群AI,告别行为树死板流程

RimWorld Mod开发进阶:用状态机重构集群AI的实战指南 在RimWorld的Mod开发中,AI行为设计一直是开发者面临的核心挑战之一。原生行为树系统虽然易于上手,但当我们需要实现复杂的多阶段动态事件时,其线性执行的局限性就会暴露无遗。…

作者头像 李华
网站建设 2026/4/22 13:06:23

电子产品热设计中,热损耗为什么重要?如何准确获取?

🎓作者简介:科技自媒体优质创作者 🌐个人主页:莱歌数字-CSDN博客 211、985硕士,从业16年 从事结构设计、热设计、售前、产品设计、项目管理等工作,涉足消费电子、新能源、医疗设备、制药信息化、核工业…

作者头像 李华
网站建设 2026/4/22 13:04:46

别再折腾虚拟机了!Win11自带WSL2安装Ubuntu 22.04 LTS保姆级避坑指南

Win11 WSL2终极指南:5分钟打造高性能Ubuntu开发环境 每次打开VMware都要等上两分钟?虚拟机吃掉你一半内存还卡顿?作为常年混迹开发一线的老手,我完全理解这种痛苦。直到去年把团队开发环境全部迁移到WSL2,编译速度直接…

作者头像 李华
网站建设 2026/4/22 13:04:07

免费解锁WeMod专业版:WandEnhancer让你的游戏修改体验升级

免费解锁WeMod专业版:WandEnhancer让你的游戏修改体验升级 【免费下载链接】Wand-Enhancer Advanced UX and interoperability extension for Wand (WeMod) app 项目地址: https://gitcode.com/gh_mirrors/we/Wand-Enhancer 还在为WeMod专业版的高昂订阅费而…

作者头像 李华