DeepMind研究副总裁罕见定调:Frontier AI不是更大的模型,而是更聪明的系统

AI PM 编辑部 · 2026年04月18日 · 10 阅读 · AI/人工智能

正在加载视频...

视频章节

当所有人都在追逐更大的语言模型时,DeepMind研究副总裁Raia Hadsell却在台上反复强调:真正的Frontier AI,并不等于“再堆参数”。这场演讲释放了一个清晰信号——下一阶段的智能竞争,方向正在悄然改变。

DeepMind研究副总裁罕见定调:Frontier AI不是更大的模型,而是更聪明的系统

当所有人都在追逐更大的语言模型时,DeepMind研究副总裁Raia Hadsell却在台上反复强调:真正的Frontier AI,并不等于“再堆参数”。这场演讲释放了一个清晰信号——下一阶段的智能竞争,方向正在悄然改变。

一个反直觉的开场:Frontier AI 不只是“更强的模型”

在这场以“Frontier AI and the Future of Intelligence”为题的演讲中,Raia Hadsell一上来就把“Frontier AI”这个被反复使用、却越来越空泛的词,重新拉回到一个更具体、更克制的位置。

她的核心态度非常明确:Frontier AI 不是简单地把模型做得更大、更贵、更耗算力,而是要确保研究始终“站在真正的前沿”。这句话听起来像是官方表态,但结合她后续挑选的几个方向,意思其实很锋利——如果你只在做语言模型的 scaling,那你可能已经偏离前沿了。

这是一个对从业者并不友好的判断。过去几年,行业形成了一种隐性共识:参数规模几乎等同于能力边界。但在DeepMind内部,至少在研究层面,这种路径显然已经不足以代表“未来智能”。

被反复点名的“embedded model”:真正的智能要走出云端

在谈到先进模型时,Hadsell特意停下来讲了一个并不“性感”的方向:embedded model(嵌入式模型)。

这不是主流媒体最爱写的那类模型——没有惊艳的对话效果,也不一定能写诗或编程。但她强调,这类模型将成为智能系统的“伴侣式存在”。换句话说,未来的AI不只是一个被你调用的服务,而是持续存在于设备、环境和系统中的一部分。

这背后的技术含义很重:对算力、延迟、能耗、稳定性的要求,和大模型完全不同。你不能靠暴力堆GPU解决问题,而必须在架构、训练方式和部署策略上做出根本改变。

这也解释了为什么她会把 embedded model 放在“frontier”这个层级来谈——如果智能不能被可靠地嵌入现实世界,那它再聪明,也只是实验室里的展示品。

两次强调“这不是语言模型”:DeepMind在押注什么?

在演讲后半段,Hadsell连续两次提到一个关键信号:接下来要讲的内容,“不是语言模型”。

其中一个方向,她明确表示,希望在未来几年内“在全球范围内被使用”。这句话的信息量很大。它暗示的不是研究原型,而是可规模化、可落地、可被不同文化和基础设施接受的智能系统。

更重要的是,她并没有试图把一切都拉回到LLM的叙事里。这与当前行业的主流话术形成鲜明对比:不是所有智能都需要通过语言来体现,也不是所有突破都发生在对话框里。

这种克制,反而让人更警觉。因为它意味着,DeepMind至少在研究层面,已经在为“后LLM中心化”的智能形态做准备。

真正的信号:智能研究正在从“炫技”转向“系统性”

如果把这场演讲拆解成一句话,那就是:未来的智能,不靠单点突破,而靠系统协同。

无论是 embedded model,还是非语言模型的全球化应用,背后都指向同一个趋势——智能正在从“模型能力展示”,转向“长期稳定运行的系统能力”。这对研究者的要求,和过去完全不同。

你需要考虑的不再只是 benchmark,而是生命周期、部署环境、失败模式,以及与人类和其他系统的长期互动。这些问题不够炫,但足够困难,也足够前沿。

总结

这场演讲最值得AI从业者反复咀嚼的,并不是某个具体技术点,而是研究重心的转移信号:Frontier AI 正在离开“参数竞赛”,进入“系统智能”的深水区。

如果你正在做模型、产品或研究,一个现实的 takeaway 是:开始问自己,你的智能系统能否长期、稳定、低成本地存在于真实世界?如果不能,它可能很强,但未必属于下一代。

真正的问题留给你:当语言模型不再是智能的唯一入口,你准备好了吗?


关键词: Frontier AI, Google DeepMind, Raia Hadsell, 嵌入式模型, 非语言模型

事实核查备注: 需核查:Raia Hadsell 的正式职务头衔;演讲中关于 embedded model 与 non-language model 的原始表述语境;视频实际时长与完整内容范围。