正在加载视频...
视频章节
在这场分享中,FactSet 的 Yogendra Miraje 直面一个企业级 AI 的核心难题:Agent 越聪明,越难控制。他提出“Agentic Workflow”这一折中路径,用规划、子目标拆解和蓝图设计,在自治性与可预测性之间建立工程化的平衡。
如何构建可控的规划型Agent:在自治与可靠之间找到平衡
在这场分享中,FactSet 的 Yogendra Miraje 直面一个企业级 AI 的核心难题:Agent 越聪明,越难控制。他提出“Agentic Workflow”这一折中路径,用规划、子目标拆解和蓝图设计,在自治性与可预测性之间建立工程化的平衡。
当AI像“怪兽卡车”:为什么Agent总是失控
这场演讲一开始,Yogendra Miraje 就用一个极具画面感的比喻点出了行业痛点。他说,现在开发 AI 应用,“就像在拥挤的商场里,用一个小小的摇杆去驾驶一辆怪兽卡车”。模型能力在指数级增长,但工程控制手段却严重滞后,这也是为什么他认为 AI 应用还没有迎来真正的“ChatGPT 时刻”。
在他看来,Agent 表现不稳定的一个核心原因是“缺乏正确的上下文”。对企业来说,这个问题尤为致命:模型不了解企业内部的工作流、约束条件和多年积累的系统能力。即便大语言模型(LLM)本身足够聪明,一旦脱离具体业务语境,自治就会迅速变成不可控。
Miraje 在这里做了一个重要铺垫:问题并不在于 Agent 本身,而在于我们如何定义和使用它们。如果继续把“高自治”当作唯一目标,企业级落地注定会困难重重。这也是他后续提出一整套概念区分和设计方法的现实背景。
从LLM到Agent:几个被混用的关键概念
为了避免概念混乱,Miraje 花了不少时间澄清术语。他首先回顾了一个基础事实:LLM 的能力受限于训练时的知识,因此必须通过工具(tool)来扩展。当 LLM 与工具和记忆结合时,他将其称为“增强型 LLM(augmented LLM)”。
如果你把这种增强型 LLM 放在一条静态、预定义的路径上运行,那它就是一个“工作流(workflow)”;而当它拥有高度自治和反馈循环时,才真正称得上“Agent”。这一区分很关键,因为它直接对应着工程属性上的取舍:工作流“可控、可靠”,Agent“灵活但不可预测”。
他提出的核心问题是:我们能不能两者兼得?答案是肯定的,而解法就是“Agentic Workflow”。在他的定义中,这是由 Agent 根据目标、上下文和反馈来“规划并执行”的工作流。
此外,他特别强调了一个常被混用的概念差异:“Workflow Agent 是由 Agent 去运行一个预定义工作流;而 Agentic Workflow 是由 Agent 来规划并运行工作流。”前者控制在系统手中,后者则把“规划权”交给模型本身,这个差别直接决定了系统的风险边界。
Agentic Workflow的工程核心:规划、子目标与蓝图
进入方法论层面,Miraje 认为 Agent 架构正在从“React 式的被动响应”走向“Proactive 的主动规划”。而支撑这一转变的,不只是工具和记忆,更关键的是一种设计模式:子目标拆解(sub-goal division,也称 task decomposition)。
在实践中,他们采用了类似“LLM Compiler”的架构:首先由规划器(planner)根据目标生成一个执行蓝图(blueprint),再由不同组件执行子任务,最后通过 joiner 汇总结果。在 LangGraph 中,这些组件被建模为一个个节点,并且可以设置递归和深度限制,以防止失控循环。
蓝图的引入,是他认为“真正实现最终控制”的关键一步。通过蓝图,系统可以限制 Agent 能使用哪些工具、如何组合步骤,同时显著降低规划器的认知负担。Miraje 提到,蓝图不仅有助于控制工具边界,还能帮助人类更好地理解 Agent 的决策逻辑。
他反复提醒一句工程经验:“把自己放在 Agent 的视角去设计工具。”为此,他强调必须为每个工具提供清晰的用途说明,以及明确的输入输出契约,并在最后加上验证检查。这些看似传统的软件工程原则,恰恰是 Agent 系统稳定性的基石。
金融研究案例与边界意识:什么时候不要用Agent
为了避免停留在抽象层面,Miraje 给出了一个具体案例:金融研究报告的准备流程。在这个示例中,蓝图中明确规定了可用的两个工具,以及它们各自负责的信息收集和分析任务,最终由系统生成一份综合报告。
这个案例的价值不在于炫技,而在于展示“规划在前、执行在后”的工程秩序。正如他所强调的,“不是让 Agent 自由发挥,而是让它在被约束的空间内聪明地行动”。
在评估层面,他同样保持克制和现实主义。他提到必须同时进行组件级和端到端评估,包括基于方面的评估(aspect-based eval)、代码级评估,以及必要时引入 human-in-the-loop。自治不意味着无人监管。
更重要的是,他明确列出了不适合使用 Agentic Workflow 的场景:高度固定和重复的任务、无法清晰建模的流程、对确定性结果要求极高的系统,以及对低延迟和成本极其敏感的场合。这种“什么时候不要用”的判断,本身就是成熟工程思维的体现。
总结
这场分享的核心启示在于:企业级 Agent 的未来,不是无限自治,而是可规划的自治。通过 Agentic Workflow,把“规划权”谨慎地下放给模型,同时保留工程约束和评估机制,才能真正把多年积累的企业系统价值释放出来。对构建 AI 应用的人来说,最重要的不是追逐概念,而是清楚自己在哪些地方需要聪明,在哪些地方必须可控。
关键词: Agentic Workflow, AI Agent, 大语言模型, 任务拆解, 企业级AI
事实核查备注: 演讲者:Yogendra Miraje;公司:FactSet;概念:Augmented LLM、Workflow、Agent、Agentic Workflow、Workflow Agent;架构与工具:LLM Compiler、LangGraph;设计模式:Sub-goal Division / Task Decomposition;案例领域:金融研究报告;引用比喻:怪兽卡车与摇杆;评估方式:component eval、end-to-end eval、aspect-based eval、human-in-the-loop