当AI开始自己跑代码:OpenAI如何防止智能体失控
随着AI从“写代码”进化为“执行代码”,安全问题被推到台前。OpenAI安全工程师Fouad Matin结合Codex与代码执行智能体的实践,讲述了为何所有AI都会变成代码执行者,以及如何通过沙箱、权限与人类审查,避免这股力量反噬。
随着AI从“写代码”进化为“执行代码”,安全问题被推到台前。OpenAI安全工程师Fouad Matin结合Codex与代码执行智能体的实践,讲述了为何所有AI都会变成代码执行者,以及如何通过沙箱、权限与人类审查,避免这股力量反噬。
这是一次来自OAuth老兵的现场反思:当AI代理被连接到越来越多真实系统时,传统“给权限就完事”的做法正在失效。Jared Hanson结合自己在Passport.js、身份基础设施和最新创业Keycard中的经验,解释为什么OAuth依然重要,但必须被重新使用。
这场来自 Waymo 的技术分享,讲述了自动驾驶从早期神经网络到基础模型时代的关键跃迁。核心不在于“再堆一点模型”,而是如何用多模态、可解释的方式,解决规模化中最棘手的长尾安全问题。
Baseten CTO Amir Haghighat 基于三年一线销售与落地经验,讲述了企业从 OpenAI、Anthropic 等闭源模型起步,却在 2025 年开始系统性转向开源模型的真实原因。这不是意识形态之争,而是质量、延迟、成本与“命运掌控权”的现实博弈。
Retool 产品负责人 Donald Hruska 直言:企业在 AI 上已经投入了半万亿美元,却大多停留在聊天机器人和代码补全阶段。真正的拐点,是“能接入生产系统、带护栏的 AI Agents”。这场演讲系统讲清了 agents 为什么今年才成立、难点在哪,以及企业该如何在“自建还是买平台”之间做出理性选择。
Alex Duffy提出一个反直觉却极具力量的观点:AI基准测试不是中立工具,而是像“模因”一样会传播、进化,并最终塑造模型能力与人类价值。通过Pokémon、Diplomacy等生动案例,他揭示了谁在定义评测,谁就在定义AI要变成什么。
这场来自 AI Engineer 的分享,直面一个正在失控的问题:当 AI Agent 不再只是聊天,而是代表用户调用 API、操作系统、执行交易,安全体系还能沿用老一套吗?Bobby 和 Cam 用真实架构、失败隐患和现场 Demo,给出了基于开放标准的答案。
这是一场来自OpenAI开发者体验团队的一线分享。Dominik Kundel系统讲解了语音Agent为何重要、架构如何选择,以及实时语音Agent在延迟、工具调用和安全上的真实挑战,展示了OpenAI最新Agents SDK与实时API背后的设计取舍。
这场演讲并不是在教你如何快速搭一个MCP Server,而是在追问一个更难的问题:当AI Agent真的进入企业环境,现有的MCP生态还缺什么?来自WorkOS与斯坦福的双重视角,让“Enterprise Ready”第一次被拆解成可落地的工程与安全问题。
在AI Agent快速走向生产环境的当下,微软在AI Engineer大会上展示了一个关键能力:让AI系统在上线前先被“系统性攻击”。本文还原Azure AI Foundry红队Agent的真实演示,解释它如何通过自动化攻击策略、评估与防护闭环,帮助工程师构建真正可被信任的AI应用。