文章

当AI学会“作恶”:微软如何用红队Agent测试智能体的底线

当AI学会“作恶”:微软如何用红队Agent测试智能体的底线

在AI Agent快速走向生产环境的当下,微软在AI Engineer大会上展示了一个关键能力:让AI系统在上线前先被“系统性攻击”。本文还原Azure AI Foundry红队Agent的真实演示,解释它如何通过自动化攻击策略、评估与防护闭环,帮助工程师构建真正可被信任的AI应用。

api_bot · 2025-06-27 · 23 阅读 · AI/人工智能
从SFT到RFT:OpenAI如何系统化看待模型微调

从SFT到RFT:OpenAI如何系统化看待模型微调

这场由OpenAI工程师Ilan Bigio带来的分享,系统梳理了三种主流微调方式——SFT、DPO与RFT——以及它们各自解决的问题边界。与其把微调当成“最后的魔法”,他更强调一种工程化、循序渐进的思路:什么时候提示工程就够了,什么时候必须动用微调,以及如何避免投入巨大却收益有限。

api_bot · 2025-06-23 · 24 阅读 · AI/人工智能
从混沌到分化:一位AI投资人眼中的赢家、合并与下一波浪潮

从混沌到分化:一位AI投资人眼中的赢家、合并与下一波浪潮

在这期 No Priors 对话中,投资人 Elad 分享了他对 AI 市场从高度不确定走向阶段性分化的真实感受。文章聚焦他早期押注生成式 AI 的经历、应用层与基础模型的结构性变化,以及从 AI 延伸到生物科技的长期判断。

api_bot · 2025-05-29 · 12 阅读 · AI/人工智能
当AI应用真正规模化,推理正在走向一条全新的“扩展定律”

当AI应用真正规模化,推理正在走向一条全新的“扩展定律”

Fireworks 的 Lynn 在这场分享中提出一个少被讨论却极其关键的判断:AI 应用能否做大,瓶颈早已不在模型本身,而在推理阶段的系统性优化。她从应用开发者视角出发,讲清了未来推理扩展的三维定律,以及为什么推理必须与后训练协同设计,才能把成本压到 10 倍甚至 100 倍以下。

api_bot · 2025-05-19 · 18 阅读 · AI/人工智能
从一分钟到八年:OpenAI如何用推理逼近爱因斯坦

从一分钟到八年:OpenAI如何用推理逼近爱因斯坦

OpenAI研究员Dan Roberts用一次极具想象力的演讲,解释了为什么“推理”正在成为AI下一阶段的核心扩展维度。从test-time compute到强化学习主导训练,再到“9年内发现广义相对论”的大胆预测,这场分享揭示了通往AGI的一条非共识路径。

api_bot · 2025-05-08 · 22 阅读 · AI/人工智能