用有限状态机驯服AI代理:一种可治理的多智能体构建范式

AI PM 编辑部 · 2025年02月22日 · 1 阅读 · AI/人工智能

正在加载视频...

视频章节

在Agentic AI成为主流的2025年,真正的难题已不再是模型能力,而是如何让AI系统变得可预测、可审计、可控制。AI Engineer频道的Adam Charlson提出,将有限状态机与Actor模型、LLM结合,或许是一条被低估但极其务实的路径。

用有限状态机驯服AI代理:一种可治理的多智能体构建范式

在Agentic AI成为主流的2025年,真正的难题已不再是模型能力,而是如何让AI系统变得可预测、可审计、可控制。AI Engineer频道的Adam Charlson提出,将有限状态机与Actor模型、LLM结合,或许是一条被低估但极其务实的路径。

当Agentic AI走向失控风险,工程问题开始压过模型问题

这一切的出发点并不是“如何让AI更聪明”,而是“如何让AI更可控”。Adam Charlson在视频一开始就点出一个关键转折:到2025年,几乎所有人都在谈论Gartner排名第一的趋势——Agentic AI,也就是能够自主规划和执行的AI系统。但他立刻强调,排名第二的趋势同样重要,甚至更重要:AI治理平台。

原因很现实。随着大语言模型被赋予越来越多的自主权,真正的挑战不再是参数规模或推理能力,而是系统层面的可预测性、可观测性与控制力。Adam用一句极具概括性的判断点破问题本质:“挑战不仅仅是智能或模型性能,而是如何构建具备可预测性、可观测性和控制力的系统。”

他并不声称有限状态机(Finite State Machine, FSM)能解决AI伦理或法律问题,但提出了一个更工程化、也更落地的观点:状态机可能在“治理AI代理决策与行为的平台”中,扮演基础性角色。这种定位本身就很有意思——它不是替代LLM,而是约束和托底LLM。

从“石头剪刀布”到State Chart:为什么老技术反而更重要

为了避免抽象空谈,Adam选择了一个极其简单的例子来解释有限状态机:石头剪刀布游戏。一个FSM由五个核心要素构成:状态定义、状态转移、事件、守卫条件(guard)以及在转移中触发的动作与副作用。比如,在“出手”这一事件发生时,系统会先检查双方出招是否平局,如果是,就回到重新选择,否则进入结束流程。

他特意自嘲了一下技术洁癖者的吐槽:“这其实不是状态机,而是状态图(State Chart)。”State Chart是FSM的扩展,引入了层级状态和并行状态,这正是现实系统复杂性的来源。Adam承认自己在演讲中会混用这两个术语,但这并不影响核心思想。

真正重要的不是定义本身,而是这些结构化约束带来的工程价值。状态机是声明式的,你可以明确知道系统‘现在在哪’,‘为什么会到这里’,以及‘接下来可能去哪’。这为后续的审计、回放、测试乃至AI治理,提供了天然的抓手。

Actor + State Machine:为多智能体系统补上“执行模型”

仅有状态图还不足以构建完整应用,这是Adam明确指出的第一个技术短板。解决方案来自另一个经典模型:Actor模型。Actor不是“Agent”,而是一个通过消息传递进行交互的自治执行单元,它只有三种能力:收发消息、更新内部状态、创建新的Actor。

关键在于,Actor的内部行为,恰好可以用有限状态机来描述。两者结合,形成了一种既能并发执行、又保持封装与可维护性的架构。Adam给出了一个来自真实职业经验的评价:他在Best Buy工作的导师,在40多年的IT生涯中,“从未见过一个他不喜欢的有限状态机”。

原因在于FSM带来的工程优势几乎与LLM的弱点一一对应:它们是可预测的、可追踪和可审计的、可靠且可恢复的。通过事件日志回放,你甚至可以“回到过去”,在某个时间点分叉出新的执行历史。这种能力让Saga模式(用于分布式事务回滚)也变得可实现。

当然,Adam并没有回避代价:状态爆炸、并发处理、版本迁移、学习曲线,都是现实挑战。但这些挑战是显性的、可工程化解决的,而不是像模型幻觉那样不可控。

Agentic State Machines:让LLM负责“智能”,让状态机负责“秩序”

真正的高潮出现在Adam提出“Agentic State Machines”这一组合模式时。他直言不讳地对比:“这些状态机的优势,正是LLM所不具备的。”LLM不可预测、不可审计、不可靠,而状态机恰恰相反。

于是,一个清晰的分工出现了:Actor提供自治与通信,状态机提供结构和行为约束,LLM提供动态智能。在这个框架下,他依次演示了多个Agentic模式:

首先是工具使用(Tool Use)。LLM并不直接调用函数,而是返回“如何调用工具”的描述,系统执行后再将结果反馈给模型。这为人类介入提供了天然的检查点。Adam特别强调,人类审批并不是Agent专属能力,而是状态机“天生擅长”的控制结构。

接着是反馈与协作。通过引入“评论员Agent”,比如营养专家,对菜谱生成Agent进行反馈,系统可以在多轮中持续改进结果。再进一步,就是由多个专职Agent组成的协作流水线,每一步都由状态机明确治理。

最后,Adam展示了两个更激进的方向:Agentic Orchestration,让LLM决定下一个状态;以及他称之为“Agentic Chartering”的模式——由LLM直接生成完整的状态图,用于先规划、再执行。他用自己厌恶垃圾邮件的真实经历举例,展示模型在零样本条件下生成新流程的潜力。

总结

Adam Charlson最终给出的并不是一个炫技式的未来想象,而是一种工程信念:真正的“涌现”不会来自更像人脑的模型,而是来自更像乐高的系统组合方式。就像React、GitHub Actions或基础设施即代码一样,有限状态机这种“老技术”,可能正是未来70年构建Agentic Systems的地基。


关键词: 有限状态机, AI Agent, 多智能体系统, AI治理, 大语言模型

事实核查备注: 演讲者:Adam Charlson;频道:AI Engineer;核心技术:Finite State Machine、State Chart、Actor Model、Saga Pattern;趋势来源:Gartner 2025;示例工具:XState;涉及公司:Microsoft、Amazon;涉及产品:o1;关键判断:LLM不可预测、FSM可治理