从Paper Club到DeepSeek R1:一次关于推理、蒸馏与时间检验的复盘
这场Latent Space Paper Club的特别版,不只是回顾一年多的论文讨论,更借DeepSeek R1/V3这篇“经得起时间考验”的论文,系统讲清了推理模型、蒸馏路线以及训练方法上的关键取舍。你能看到一个技术社区如何成长,也能理解DeepSeek为何在推理能力上引发关注。
这场Latent Space Paper Club的特别版,不只是回顾一年多的论文讨论,更借DeepSeek R1/V3这篇“经得起时间考验”的论文,系统讲清了推理模型、蒸馏路线以及训练方法上的关键取舍。你能看到一个技术社区如何成长,也能理解DeepSeek为何在推理能力上引发关注。
Simon Willison 用一场充满幽默的演讲,回顾了 2025 年前六个月大模型世界的剧烈变化:模型更便宜、更强、本地可跑,也更危险。这篇文章提炼了他最重要的判断、案例和隐忧,帮你快速理解今年 LLM 发展的真实方向。
Prime Intellect 的 Will Brown 认为,推理模型与 AI Agent 并非两条独立技术路线,而是同一问题的不同侧面。本次演讲从强化学习的复兴讲起,结合架构、奖励设计和玩具案例,揭示了训练“会行动的推理模型”为何正在变得可行,却依然充满挑战。
Y Combinator合伙人在《Light Cone》中讨论了AI如何重塑企业软件的价值结构:模型正在被快速商品化,而真正的护城河转向工作流、业务逻辑与数据。本文提炼他们对“智能成本归零”、SaaS新周期以及AI优先公司的关键判断。
在这场演讲中,Bespoke Labs 创始工程师 Ryan Marten 复盘了 OpenThoughts 项目的完整探索过程:为什么 DeepSeek R1 的成功让他们意识到“数据配方”才是推理模型的关键,以及他们如何通过系统化实验,把监督微调(SFT)的推理能力推到新的高度。
Nathan Lambert在这场演讲中,回顾了过去半年推理模型的关键变化,提出了一套“下一代推理”的分类法框架。他从可验证奖励的强化学习出发,解释为何推理不只是更长的思维链,而是一整套可被设计、比较和工程化的能力组合。
Charles Frye 在这次演讲中给 AI 工程师泼了一盆冷水:只会调用模型 API 已经不够了。随着推理成本、延迟和规模问题暴露,理解 GPU 的设计哲学——带宽、并行性和张量计算——正成为构建下一代 AI 应用的基础能力。