模型的下一次“跃迁”,诞生自硬件
昨天,当OpenAI做智能手机的具体规格与供应链爆料发布时,让人想起两周前Richard Ho在Stanford的交流。Richard Ho是OpenAI硬件负责人,从Google做TPU出来。那场交流虽未提及“手机”,但结合爆料,路径已清晰。OpenAI做手机看似跨界,实则是早就铺好的路,对模型厂商而言,手机是终点之一。那场交流核心是OpenAI为何要自己做硬件,Richard Ho强调“真正的限制不再只是模型,而是算力、能耗、成本、延迟,是整个系统”,意味着OpenAI不再单纯是模型公司。GPU在传统并行任务表现好,但面对主流的Transformer、agent等已偏离设计假设,尤其是agent会放大系统层低效。Richard Ho称“GPU把我们带到了今天,但它并不是为这种(AI负载任务)而设计的”,意味着依赖NVIDIA硬件路径,OpenAI无法推动模型到下一个量级。OpenAI做的不是芯片,而是包含芯片、机架等的系统,强调端到端控制。团队从零搭建,两年实现tape - out,有芯片在真实workload中运行。这背后可能是挖成熟硬件团队或合作方提供底层IP支持。OpenAI与硬件供应商合作有边界,架构层要握在自己手里。OpenAI硬件团队为未来模型设计芯片,“向前看”影响诸多硬件设计决策。OpenAI芯片与NVIDIA、AMD不同,是贴合自身模型路径的定制系统。硬件优化天花板远未到,OpenAI要重新优化AI计算系统,手机是系统末端。
“手机不是为agent设计的”
Richard Ho称“手机不是为agent设计的”,如今手机交互是app - based、session - based,而agent需要持续存在、跨任务协同,iOS和Android都不适合。OpenAI判断未来是云端和边缘结合,agent需在操作系统层有完整权限,但Apple和Google不会开放系统级权限。去年OpenAI收购Jony Ive团队相关公司(io),做端侧个人设备是有想象力又危险的部分,有想象力是用AI agent重写操作系统,危险是消费电子规则不同。io负责硬件形态和工业设计,解决了部分问题。
不是所有AI公司都在做同一件事
过去两年,不同AI公司在硬件尝试路径不同。Rabbit R1在2024年初CES引发关注,开售两周卖5万台,但被证实是套壳安卓,LAM依赖OpenAI API,续航短、使用体验差,只做硬件壳子没碰底层。Meta让AI借眼镜进入日常,Ray - Ban Meta卖出超200万副,拿下全球智能眼镜市场75%以上份额,但解决的是“AI怎么进入日常”,而非“AI怎么重新定义计算”。阿里千问眼镜是Meta路径中国版,节奏快,是阿里AI服务生态延伸。对比之下,OpenAI是唯一做“全栈重新定义”的公司。
真正的护城河,不在模型层
Richard Ho判断未来模型公司在系统层赢,AI竞争是系统能力竞争。OpenAI模型发展会受基础设施瓶颈限制,需从模型公司变成基础设施和设备公司。Richard Ho给出未来算力规模20GW,这涉及国家电网和能源政策。OpenAI做手机是路径自然结果,计算范式正从app为中心转向agent为中心,OpenAI不再只是模型公司。