从SFT到RFT:OpenAI如何系统化看待模型微调
这场由OpenAI工程师Ilan Bigio带来的分享,系统梳理了三种主流微调方式——SFT、DPO与RFT——以及它们各自解决的问题边界。与其把微调当成“最后的魔法”,他更强调一种工程化、循序渐进的思路:什么时候提示工程就够了,什么时候必须动用微调,以及如何避免投入巨大却收益有限。
这场由OpenAI工程师Ilan Bigio带来的分享,系统梳理了三种主流微调方式——SFT、DPO与RFT——以及它们各自解决的问题边界。与其把微调当成“最后的魔法”,他更强调一种工程化、循序渐进的思路:什么时候提示工程就够了,什么时候必须动用微调,以及如何避免投入巨大却收益有限。
本文基于Andrej Karpathy在Y Combinator的演讲,深入解析了软件从传统编程到神经网络、再到大语言模型(LLM)驱动的三次范式转变,结合他在Tesla和个人项目中的真实经历,揭示AI如何重塑开发者角色、软件生态与未来机会。
这场演讲不是在教你如何“再写一个更聪明的Agent”,而是在回答一个更现实的问题:当Agent已经复杂到不可控时,团队该如何判断它到底哪里坏了、又该先修哪里。Aparna分享了一套从工具调用到多轮对话、再到自我改进的评估方法论。
这支演示视频通过一个“从零构建2048游戏”的真实案例,完整展示了Amazon Q Developer如何贯穿软件开发生命周期。从需求规划、编码、测试、文档、GitHub协作到云端部署与运维,演讲者给出了一个清晰信号:生成式AI不再只是写代码工具,而是开发者的“全流程助手”。
这支演讲并不是吐槽ChatGPT功能不够强,而是直指一个更少被讨论的问题:设计。演讲者通过真实演示,指出ChatGPT在语音与文本、多模型协作上的割裂体验,并展示如何用现成API重构一个“更像人类交流”的AI界面。
一次看似不可能的任务:两周内分析一万通销售电话。Charlie Guo 通过大语言模型、工程化系统设计和成本控制,把原本需要两年的人力工作,变成单人可完成的AI项目。这篇文章还原了其中最关键的技术决策、踩过的坑,以及对企业数据价值的深刻启示。
从Instruct GPT到GPT‑4.1,语言模型在“听话”这件事上并没有线性进步。AI21 Labs 的 Yuval Belfer 通过工程视角给出答案:问题不在模型,而在我们把所有复杂性都塞进了一个提示词。真正可靠的 AI Agent,需要规划与执行引擎。
Blender MCP 并不是又一个“AI 自动建模”工具,而是一次对创作工具范式的重构。通过 MCP 协议,LLM 开始直接操控 Blender 这样的复杂软件,把“学习工具”这一步彻底隐藏在背后。本文还原了作者的真实动机、踩过的坑,以及他对未来创作工具的判断。
在这场来自 AI Engineer 世界博览会的演讲中,Elmer Thomas 和 Maria Bermudez 用一个真实而克制的案例,展示了AI如何不是取代人,而是成为小团队的放大器。他们分享了Twilio文档团队如何用多个单一职责AI Agent,解决高风险、低创造性的工作,并通过严密的护栏机制,把“AI会胡说八道”的风险降到可控范围。
这场演讲中,William Lyon提出了一个颇具画面感的概念——“Knowledge Graph Mullet”,用混合知识图谱的方式,解决GraphRAG在真实应用中过于复杂的问题。通过结合RDF与属性图、Dgraph与DQL,以及具体的新闻数据与AI Agent示例,他展示了一条更可落地的知识图谱+生成式AI路径。