顶级CTO警告:只用Chat做Agent,迟早会翻车
正在加载视频...
视频章节
当大多数人还在讨论“多智能体怎么写Prompt”时,一位服务上千家律所的CTO抛出一个刺耳结论:真正复杂的Agent,失败不是因为模型不够强,而是因为你把一切都塞进了聊天框。这场演讲,几乎是在给整个Agent行业泼冷水。
顶级CTO警告:只用Chat做Agent,迟早会翻车
当大多数人还在讨论“多智能体怎么写Prompt”时,一位服务上千家律所的CTO抛出一个刺耳结论:真正复杂的Agent,失败不是因为模型不够强,而是因为你把一切都塞进了聊天框。这场演讲,几乎是在给整个Agent行业泼冷水。
那个让人崩溃的Agent时刻,每个从业者都遇到过
Jacob Lauritzen 一上来就讲了一个所有人都熟悉、却很少被认真反思的场景:你让一个长时运行的复杂 Agent 去“研究资料、起草合同、不要犯错”。Agent 看起来很努力——拉起子 Agent、疯狂搜索、写文件、再搜索、再写。30 分钟后,它交付了一份合同。
你只提了一个修改意见:“第三条好像不太对,能不能参考另一份文件?”Agent 礼貌道歉,重新开始。然后你看到了那个致命的词:compaction。上下文被压缩、遗忘开始发生、所谓的“context rot”正式登场。
第二版合同出来了。第三条可能改了,但其他地方呢?你不知道,也不敢信。此时你意识到:你不是在和一个专业助手协作,而是在和一个失忆但自信的实习生博弈。
Jacob 的判断非常直接:这不是模型的问题,是交互范式的问题。把复杂、长链路、强依赖上下文的工作,硬塞进 Chat 这种“一维、低带宽”的界面,本身就是反模式。
一个反直觉的现实:做事很便宜,计划和审核才是瓶颈
作为一家法律垂直 AI 公司 CTO,Jacob 给出了一个很多工程师没意识到的变化:过去 6–12 个月,Agent 的“经济学”彻底变了。
以前,难点在于“把事做完”;现在恰恰相反——执行几乎是最便宜的部分,真正昂贵的是计划和审核。写代码、生成合同、整理材料,这些都变得异常廉价;但搞清楚需求、对齐非功能性约束、以及最后的 review,成了新的吞噬时间黑洞。
他用一个所有人都懂的比喻补刀:review 一个巨大的 GitHub PR,是纯粹的精神折磨。你当然可以让 Agent review 自己的工作——“如果你足够 AI pilled 的话”——但你心里也清楚,这事未必靠谱。
这直接引出了他后面反复强调的一个核心原则:Verifier’s Rule。如果一件事“容易验证”,那 AI 迟早能把它做到极致;一旦“难验证”,Agent 就会陷入无限循环和低质量修补。
而法律、战略、复杂产品决策,恰恰都是“容易做、极难验证”的典型代表。
真正可扩展的Agent,不是更聪明,而是更可控
那问题来了:在“不可验证”的世界里,Agent 还能怎么用?Jacob 给出的答案不是更强的模型,而是人机协作的重新设计。
他把关键拆成了两个词:信任(Trust) 和 控制(Control)。
信任低,你就得 review 一切;信任高,你才能 YOLO 放权。但信任不是靠祈祷,而是靠工程手段一点点“拉低任务难度”:
- 把判断留给人,把 lint、检查、格式化交给 Agent
- 用 proxy verification,比如“黄金合同”做对照
- 拆解任务,让 Agent 只在安全边界内行动
- 加 guardrails,明确哪些事它绝对不能做(比如别删 prod)
更重要的是,他提出一个很多人忽略的结构性视角:Agent 的工作本质上是一个 DAG,而不是一段对话。你可以不规划,直接让它干,那控制力最低;你也可以先规划,但规划本身又慢又脆弱,像一个永远不汇报进度的同事。
Legora 的选择是“技能 + 逐步澄清(elicitation)”:把人类判断编码进可复用的 skills,在关键节点向人提问,但不阻塞整体流程,并且把所有决策写进日志。
为什么Chat不是未来,真正的答案在UI里
演讲最锋利的一刀,落在了 Chat 本身。
Jacob 说得毫不客气:Chat 是一个低带宽接口,它会把巨量工作压缩成一行字。你有一个庞大的 work tree,却非要通过“你觉得这样行不行?”来协作,本身就是灾难。
更好的方式是什么?高带宽、可持久的协作工件(artifacts):
- 文档本身就是协作界面,可以高亮条款、标记 Agent、指派审查
- 表格化 review,让“看”和“改”变得极其廉价
- 明确 flag 出需要人类判断的点,其余部分放心让 Agent 跑
这背后是一个更大的判断:UI 正在收敛。Chat 作为输入很好,但不会是 Agent 的主要协作模式。语言是人类的通用接口,却不是 Agent 的能力上限。我们受限于语言,而 Agent 不必。
当你还在组织“怎么跟 Agent 说话”时,领先者已经在设计“怎么让 Agent 不用一直跟你说话”。
总结
Jacob 的核心信息其实很残酷:如果你的 Agent 产品还严重依赖 Chat,那你大概率做不出真正复杂、可规模化的系统。未来的分水岭不在模型参数,而在控制结构、验证路径和协作界面。对从业者来说,下一步值得做的不是再调一轮 Prompt,而是认真问自己三个问题:哪些判断必须由人来做?哪些结果可以被低成本验证?你的 UI 是否在放大人类的控制力,而不是消耗它?想清楚这三点,你才真正站在“Agent 时代”的起跑线上。
关键词: AI Agent, 垂直AI, 人机协作, Agent架构, Claude Code
事实核查备注: 需要核查:Jacob Lauritzen 的职位与公司(CTO of Legora);Legora 客户数量(1000+)、市场数量(50+);“最快增长之一”的表述是否为原话;Verifier’s Rule 的提出者 Jason 的全名与原始语境;Claude Code 示例是否来自现场演示