从OpenAI到企业一线:Applied Compute如何重做高效强化学习
这场演讲不是在重复“强化学习很重要”,而是讲清楚一件更现实的事:当RL从研究走向企业生产环境,什么地方一定会坏、为什么GPU会被浪费,以及他们如何用异步RL把训练效率拉回可控区间。
这场演讲不是在重复“强化学习很重要”,而是讲清楚一件更现实的事:当RL从研究走向企业生产环境,什么地方一定会坏、为什么GPU会被浪费,以及他们如何用异步RL把训练效率拉回可控区间。
在这场演讲中,AWS的Antje Barth用Alexa和Amazon Q的真实案例,展示了AI Agent如何从“单点智能”走向“云规模协作”。她不仅给出了AWS内部的实践数据,还首次系统讲述了Strands Agents与MCP背后的方法论。
Simon Willison 用一场充满幽默的演讲,回顾了 2025 年前六个月大模型世界的剧烈变化:模型更便宜、更强、本地可跑,也更危险。这篇文章提炼了他最重要的判断、案例和隐忧,帮你快速理解今年 LLM 发展的真实方向。
AWS 的 Suman Debnath 在这场演示中介绍了 Strands Agents——一个刻意“反工程化”的开源 AI Agent SDK。它试图用极少的 scaffolding,把推理权真正交还给模型,并通过真实 Demo 展示:当你只保留模型与工具,Agent 反而能做得更多。
这篇文章还原了Darius Emrani对AI基准测试体系的犀利批判:为什么这些排行榜能左右数十亿美元,却越来越不可信;大厂常用的三种“赢法”是什么;以及为什么真正想做出好产品的团队,应该停止追逐榜单,转而构建属于自己的评估体系。
这是一场典型“工程师视角”的AI工作坊。Daniel Han不追逐概念热词,而是从开源模型的真实演进出发,串起微调、人类反馈强化学习(RHF)、经典强化学习,再落到量化等工程取舍,帮助听众理解:今天的大模型能力,究竟是如何一步步被“驯化”出来的。