从规模化到自我进化:强化学习为何成为自动编程的关键拐点
这场演讲由前Google PaLM与Gemini核心研究者Aakanksha Chowdhery分享,系统回顾了大语言模型从“规模化”到“推理能力”再到“自动编程”的演进脉络。她的核心观点是:当模型具备推理能力后,真正的瓶颈转向了如何通过强化学习,让模型在真实任务中自我改进。
这场演讲由前Google PaLM与Gemini核心研究者Aakanksha Chowdhery分享,系统回顾了大语言模型从“规模化”到“推理能力”再到“自动编程”的演进脉络。她的核心观点是:当模型具备推理能力后,真正的瓶颈转向了如何通过强化学习,让模型在真实任务中自我改进。
这是一场少见的、以工程实践为中心的Google Gemini工作坊。演讲者不讲宏大叙事,而是带着开发者一步步跑Notebook、问价格、调输出、连工具,展示了Gemini 2.0在真实工程场景中的使用方式与边界。
Google DeepMind研究员Jack Rae从研究视角解释了Gemini中“thinking”的来龙去脉:它并非简单让模型回答更慢,而是试图解决大语言模型在推理、验证和人类理解层面的核心瓶颈。这场演讲揭示了DeepMind内部对智能进展的判断框架。
这场来自 AI Engineer 的演讲,通过 Gemini Live API 与 Pipecat 的现场演示,系统拆解了“实时语音 AI 为什么难、难在哪里、又是如何被逐层解决的”。它不仅讲技术,更解释了为什么语音会成为下一代 AI 应用的默认入口。
Windsurf产品负责人Kevin Hou在AI Engineer Worlds Fair上,讲述了他们如何从“代码补全”迈向“全程代理”,以及一个核心理念:让人类与AI共享同一条时间线。本文还原演讲中最关键的洞见、案例与判断。
在这场面向开发者的演讲中,Google DeepMind 的 Paige Bailey 通过一系列现场演示,展示了 Veo 从 V2 到 V3 的关键变化:更强的自然语言理解、更可控的镜头运动,以及从图像到视频的创作范式转移。这不仅是模型升级,更是视频创作方式的转折点。
这是一次来自 Anthropic 一线工程师的复盘分享,讲述他们在大规模落地 AI 工具调用时踩过的坑,以及为什么最终选择用 MCP 作为统一标准。文章将带你理解 MCP 真正解决了什么问题,以及它在安全、扩展性和组织效率上的长期价值。
Last Mile AI CEO Sarmad Qadri结合自己从语言服务器协议到AI Agent的长期经验,提出了一个关键判断:2025年将是Agent大规模进入生产环境的一年。在这次分享中,他系统解释了Agent技术栈的三大变化、MCP为何会成为事实标准,以及为什么“Agent本质上是异步工作流”。
这是一次来自一线AI工程师的真实复盘:经历37次失败后,Jonathan Fernandes 总结出一套可在生产环境稳定运行的RAG技术栈。文章不仅讲清楚每一层该怎么选,更重要的是解释了为什么很多RAG项目会悄无声息地失败。
一位前Stripe产品负责人,分享自己从大厂走向AI创业一线后的真实体验:用户问题不再清晰、路线图失效、速度成为生存门槛,以及在没有品牌光环下做增长的残酷现实。