为什么微软押注本地AI:Foundry Local背后的现实转折
当云端AI仍在狂飙,微软却在系统性推进“本地AI”。在这场演讲中,Foundry Local首次完整展示了微软对边缘AI的判断、技术积累与真实落地方式,解释了为什么现在正是本地AI成熟的关键节点。
当云端AI仍在狂飙,微软却在系统性推进“本地AI”。在这场演讲中,Foundry Local首次完整展示了微软对边缘AI的判断、技术积累与真实落地方式,解释了为什么现在正是本地AI成熟的关键节点。
LlamaIndex 开发者关系副总裁 Laurie Voss 用 15 分钟浓缩了一个关键信息:真正能在生产中跑起来的 Agent,靠的不是“更聪明的模型”,而是扎实的设计模式。这场演讲从 RAG 的必要性讲起,逐步引出链式、路由和编排式等 Agent 架构,给出了一套可复用的方法论。
当AI大幅加速写代码的“内循环”,测试、评审、合并、部署的“外循环”正在成为新的瓶颈。Graphite联合创始人Tomas Reimers分享了他们如何用AI解决AI带来的问题,以及为什么未来的开发工具必须是“AI原生”的。
Gitpod现场CTO Lou Bichard分享了他们六年来在安全、成本与可运维性之间反复权衡的Agent架构演进史。从SaaS到自托管,再到最终让CISO放心的混合模型,这是一段充满失败教训的真实故事。
在这场演讲中,Jim Bennett用一连串真实翻车案例和现场演示,解释了为什么AI代理天生不值得“信任”,以及如何通过“以评估为核心、以可观测性为驱动”的方法,把不可预测的AI系统驯服成可控的软件系统。
Elastic 工程师 Philipp Krenn 用一场充满自嘲与黑色幽默的演讲,揭开了向量搜索基准测试(benchmark)光鲜数据背后的真相:从“基准营销”到隐性作弊,再到为什么你最终只能相信自己的测试。
这场由 Pipecat 与 Tavus 联合分享的演讲,罕见地从工程一线拆解了“实时对话视频 AI”为什么过去很糟、现在终于可行,以及真正的难点不在模型本身,而在编排与部署。读完你会理解,一个 600 毫秒响应的对话式视频系统,究竟是怎样被搭出来的。
这场来自 AI Engineer 的演讲,通过 Gemini Live API 与 Pipecat 的现场演示,系统拆解了“实时语音 AI 为什么难、难在哪里、又是如何被逐层解决的”。它不仅讲技术,更解释了为什么语音会成为下一代 AI 应用的默认入口。
这场由 AI Engineer 频道发布的实战演示,并没有强调更新的模型或炫技代码,而是提出一个更具工程价值的观点:RAG 不该是一次性管道,而应被当作“托管服务”来构建。通过现场一步步搭建 Agent、接入数据、做评估,演讲者展示了如何把 RAG 从 Demo 推向可生产化系统。
这场由 Cerebras 研究人员主导的工作坊,从模型推理的真实痛点出发,讨论了为何仅靠更大的模型已经不够,并提出了“Mixture of Agents(智能体混合)”这一思路。文章还原了他们如何结合硬件、架构与系统设计,探索比前沿大模型更快、更实用的推理路径。