为什么AI可解释性正在成为下一代模型的分水岭
Goodfire AI 的 Mark Bissell 用大量现场演示解释了一个正在迅速升温的研究方向:AI 可解释性。他不仅回答了“模型内部到底发生了什么”,还展示了当你真的能看懂神经网络时,开发、调试和控制 AI 会发生怎样的质变。
Goodfire AI 的 Mark Bissell 用大量现场演示解释了一个正在迅速升温的研究方向:AI 可解释性。他不仅回答了“模型内部到底发生了什么”,还展示了当你真的能看懂神经网络时,开发、调试和控制 AI 会发生怎样的质变。
在这场关于LLM评测的演讲中,Red Hat 的 AI 开发者倡导者 Taylor Jordan Smith 用大量真实经验说明:生成式 AI 的最大风险不在“不会用”,而在“用得太快”。这篇文章提炼了他关于企业级大模型落地、评测体系与渐进式成熟路径的核心洞见。
这是一场专为AI工程师准备的融资“去迷思”分享。来自Jam和Notable的创业者用真实经历拆解VC最在意的判断逻辑:什么时候该融资、没有营收和产品是否可行,以及如何用故事而不是模板打动投资人。
这不是一场关于“AI 很强”的演示,而是一场关于如何把 AI Agent 安全、可复现、可维护地交付到真实工程里的工作坊。Kyle Penfound 和 Jeremy Adams 用 Dagger 从零搭起一个能跑在本地、CI 和 GitHub Actions 里的 Agent,展示了工程化智能体的完整路径。
这是一场关于GitHub Copilot“进化方向”的现场演示。Christopher Harrison没有炫技,而是用大量时间解释一个核心问题:为什么Agent时代的Copilot,本质上是对“上下文”的重新理解。看完你会明白,Copilot正在从代码提示器,变成能被指挥、能协作、能持续工作的工程伙伴。
这场由 Bench 的 Damien Murphy 带来的 Workshop,用真实代码和现场 Demo 讲清了两个当下最火的概念:A2A 与 MCP。它不仅回答了“该用哪个”,更重要的是解释了“什么时候千万别用”,以及如何把它们组合成可落地的自动化系统。
这场演讲围绕一个核心问题展开:为什么“通用机器人”在今天才变得可行?两位来自Physical Intelligence的研究者,从视觉-语言-动作模型(VLA)的技术突破、数据引擎的构建方式,到真实家庭场景中的机器人演示,给出了一个比“算力更强了”更具体、更残酷也更乐观的答案。
这场来自 Waymo 的技术分享,讲述了自动驾驶从早期神经网络到基础模型时代的关键跃迁。核心不在于“再堆一点模型”,而是如何用多模态、可解释的方式,解决规模化中最棘手的长尾安全问题。
这是一场少见的“边讲边干”的LLM Serving工作坊。Baseten的工程师通过SGLang,从框架历史、现场部署到推理性能优化,展示了大模型服务真正的工程细节,以及为什么“让模型跑得快”远比选模型更复杂。
Pydantic作者Samuel Colvin在一次AI Engineer演讲中,抛出了一个反直觉观点:在生成式AI飞速变化的今天,真正不该被忽视的,是类型安全和工程基本功。他用真实代码演示解释了,为什么Agent并不神秘,以及为什么类型系统正在成为AI应用可维护性的核心。