从Copilot到同事:高风险行业如何真正信任AI Agent

AI PM 编辑部 · 2025年07月23日 · 2 阅读 · AI/人工智能

正在加载视频...

视频章节

Thomson Reuters CTO Joel Hron 讲述了一个关键转变:AI 正从“有用的助手”变成“能做决定的同事”。在法律、税务、风控等高风险行业,这一转变要求对 Agent 的设计、权限与责任进行根本性重构。本文还原他在实践中得到的真实经验与方法论。

从Copilot到同事:高风险行业如何真正信任AI Agent

Thomson Reuters CTO Joel Hron 讲述了一个关键转变:AI 正从“有用的助手”变成“能做决定的同事”。在法律、税务、风控等高风险行业,这一转变要求对 Agent 的设计、权限与责任进行根本性重构。本文还原他在实践中得到的真实经验与方法论。

为什么“有用”已经不够了:AI 正被要求承担结果

这场演讲一开始,Joel Hron 就点出了一个正在发生但常被低估的变化:过去两年半里,企业构建 AI 的“北极星”已经悄然移动。最初,大家希望 AI 助手“有帮助、尽量准确、能给出处引用”,但现在,这些已经不够了。

他直言:“我们不再只是要求助手有帮助,我们要求它们真正产出结果,甚至代表用户做判断和决策。”这在法律、税务、全球贸易、风险与欺诈调查等场景中尤为残酷——因为这些领域“犯错的代价,对用户来说是不可接受的”。

这一转变的重要性在于,AI 的角色发生了本质变化:从 Copilot(副驾驶)走向 Colleague(同事)。副驾驶可以建议,但同事要对结果负责。当 AI 被允许直接影响合同条款、合规判断或风险结论时,任何一次幻觉或不稳定输出,都可能转化为真实世界的法律和经济风险。

Hron 特别强调,这并不是一个抽象的未来设想,而是过去 6 个月里已经发生的现实变化。正是这种“从有用到可生产”的迁移,迫使他们重新思考什么是可信任的 Agent,以及如何在高风险环境中部署它们。

一家百年公司,为什么敢把 AI 推向高风险前线

理解 Thomson Reuters(TR)的背景,是理解这场演讲的关键。与许多快速起量的 AI 初创公司不同,TR 已经存在了 100 多年,并深度嵌入了法律、税务、审计、合规等核心行业。

Hron 给出了一组极具冲击力的数据:97% 的美国前 100 大律所、99% 的《财富》100 强企业,以及美国前 100 大会计师事务所,都是他们的客户。这意味着,TR 的任何 AI 产品,几乎必然运行在“不能出错”的场景中。

支撑这一点的,是内容与领域专家的厚度。TR 拥有约 4,500 名领域专家,是“全球雇佣律师最多的公司之一”,并积累了超过 1.5 TB 的专有内容。这些内容不是网页抓取,而是被持续维护、审校和更新的专业知识体系。

在投入层面,这同样不是试水。过去几年里,TR 在并购上投入超过 30 亿美元,拥有 200 多名科学家和工程师组成的应用研究实验室,并且每年在 AI 产品研发上的资本投入超过 2 亿美元。Hron 借此传递了一个隐含信号:只有当你同时具备领域权威、内容壁垒和长期投入,才有资格讨论“高风险 Agent”。

从“Agent 工具”到“Agent 组织”:生产力跃迁的信号

演讲中最具洞见的一段,来自 Hron 对 Y Combinator 一句话的引用。他提到 YC 在 2025 年夏季对创业者的建议:“不要为律所构建 Agent 工具,而是构建由 Agent 组成的律所。”

这句话之所以重要,是因为它清晰地标记了行业阶段的跃迁:AI 不再只是嵌入到既有流程中的效率插件,而是开始被设想为能够独立承担完整职能的“组织单元”。

Hron 将这一变化总结为:从 helpfulness 到 productivity。前者关注体验是否友好,后者关注是否真正完成工作、交付结果、承担决策。

但他也提醒,这种跃迁并不意味着一刀切的“全自动”。在 TR 内部,他们更愿意把 Agentic AI 看作一个“连续谱”,而不是一个开关。系统的自主性、可行动范围、是否需要人类确认,都是可以调节的“旋钮”。

不同的使用场景,需要不同程度的 Agent 能力。让 AI 自动生成研究摘要,和让 AI 判断合规风险,所需的信任等级完全不同。真正成熟的 Agent 系统,不是追求最大自主性,而是精准匹配风险与授权。

两年半踩坑后的方法论:从系统层面设计信任

在回顾两年半的实践时,Hron 分享的并不是单点技巧,而是一整套系统性反思。他提到,团队为 Agent 系统建立了一套内部 rubric,用来在不同组件上持续“爬坡式优化”,而不是一次性追求完美。

一个重要教训是:许多传统的遗留应用在 Agent 时代是“先天受限的”。它们原本是为人类操作设计的界面和流程,并不适合被 AI 直接驱动。因此,简单地在旧系统上叠加 Agent,往往效果有限。

相反,他们发现,从更完整、更复杂的用例入手,反而能更快暴露问题、积累经验,而不是先在一个极小的功能点上打磨。这与很多“从 MVP 开始”的直觉相反,却更符合高风险场景的现实。

在随后的演示中,他展示了如何为既有法律和专业应用“注入新生命”,通过 Agent 重新编排流程、调用内容和工具。这些演示并不是炫技,而是为了验证一个核心问题:在不牺牲可信度的前提下,AI 是否真的能承担更大的责任。

总结

Joel Hron 的分享传递了一个清晰信号:Agent 的未来不在于更像人聊天,而在于更像人工作,甚至对结果负责。但在高风险行业,这条路无法靠速度取胜,只能靠系统性设计、内容壁垒和对失败的敬畏。对读者而言,真正值得思考的问题是:你的 AI,是在“帮忙”,还是已经被允许“做决定”?


关键词: AI Agent, 高风险行业, Thomson Reuters, 生产力跃迁, 可信任AI

事实核查备注: 人物:Joel Hron(Thomson Reuters CTO);公司:Thomson Reuters、Y Combinator;关键数据:公司历史100+年、4,500名领域专家、1.5TB专有内容、97%美国前100律所客户、99%财富100强客户、200+研究人员、每年2亿美元AI投入;核心概念:从helpfulness到productivity、Agentic AI为连续谱。