给 Agent 全量 API 是个坏主意:Cloudflare 的反直觉答案
把所有 API 一股脑喂给 Agent,看起来很聪明,实际上却是灾难。Cloudflare 的 Matt Carey 用一次真实的工程踩坑告诉你:上下文窗口不是瓶颈,思路才是。
把所有 API 一股脑喂给 Agent,看起来很聪明,实际上却是灾难。Cloudflare 的 Matt Carey 用一次真实的工程踩坑告诉你:上下文窗口不是瓶颈,思路才是。
如果你还沉迷于“跑最新、最大的模型”,那 AIE Miami 第二天的内容可能会让你坐立不安。从 agentic coding 的心态转变,到推理延迟的真实代价,再到 Cursor、AutoGPT 背后的产品哲学,这一天的共识只有一个:AI 工程正在彻底换玩法。
把 Gemma 4 直接跑在 iPhone 上,而且速度能到 40 tokens/s——这不是概念演示,而是已经能用的体验。Adrien Grondin 用 MLX 展示了边缘大模型的临界点:不靠云、不等网络,AI 开始真正住进你的手机。
最近一个名字在 AI 圈反复出现:Hermes Agent。它被称为“OpenClaw killer”,主打自我学习、内置记忆、可扩展技能,甚至能跑在 Android 手机上。这期视频第一次把它从“传说”拉到“可落地”,一步步告诉你它到底强在哪。
大多数人还在争论模型参数和推理能力时,Anthropic 的 David Soria Parra 已经把注意力转向了另一件事:连接。MCP 不只是一个协议,它正在成为 2026 年 AI Agent 能否真正落地的“隐形底座”。这场演讲,信息密度极高。
YC 最新一期《Light Cone》抛出一个让人坐不住的判断:机器人不是慢慢变好,而是刚刚跨过一个临界点。成本在塌陷、模型在统一、数据在重组,最重要的是——机器人第一次开始遵循我们在 AI 软件世界里熟悉的 scaling 逻辑。
当所有人都在追逐更大的语言模型时,语音AI却悄悄走在一条更难、更慢、也更接近“人”的路上。ElevenLabs 创始人 Mati Staniszewski 在 Stripe 的这场对谈里,几乎把语音AI的技术演进、数据真相和商业化底牌全摊开了。
如果你还觉得大模型只能在云端跑,这场NVIDIA的实测会直接打脸:14B模型本地20 token/s,首token快3.4倍。更重要的不是跑得多大,而是开发者终于能在自己桌边,摸清真实的工程边界。
如果你的 MCP Server 在本地跑得很顺,恭喜你——它大概率撑不过生产环境。来自 Lenses 的 AI 工程师直言:糟糕的 MCP 设计,本质上就是安全事故的预演。这场分享揭开了 Agent 接口、上下文、Token 与部署之间那些被严重低估的风险。
Anthropic 再次“手滑”泄露 Claude Code 源码,有人只是围观,而 Riley Brown 直接下载、拆解、改人格、换UI,甚至做成桌面应用。这不是黑客炫技,而是一堂关于“AI Agent到底是怎么被造出来的”公开课。